#statstab #479 Different ways of calculating OLS regression coefficients (in R)
Thoughts: The are many ways to skin a variable...
#rstats #regression #modelling #tutorial #r #glm #ols #coding
#statstab #479 Different ways of calculating OLS regression coefficients (in R)
Thoughts: The are many ways to skin a variable...
#rstats #regression #modelling #tutorial #r #glm #ols #coding
Iaiso (@laiso)
Qwen code와 qwen3-coder-next 조합이 GLM 4.7 수준의 결과를 보였다는 보고(laiso/ts-bench PR). 해당 모델은 상위권 모델들 중 셀프호스트 요건이 가장 낮고, 외부 제공자 가격도 k2.5 대비 약 절반 수준으로 관측되어 성능 대비 호스팅 비용·자원 효율 측면에서 주목받고 있습니다.
Hunter (@huntermbown)
ZMLX가 GLM 4.7용 Flash 4bit 양자화에서 디코드 성능을 약 +8% 향상시켰으며, 해당 개선이 ExoLabs 환경에서도 작동한다고 보고했습니다.
Hunter (@huntermbown)
GLM 4.7 Flash 4bit에서 디코드 성능이 +8% 향상되었다는 보고. 해당 개선은 ZMLX에서 제공한 것으로 보이며, @exolabs 환경에서도 작동이 확인되었다고 언급됨.
Hunter (@huntermbown)
ZMLX의 GLM 4.7 Flash 4bit에서 디코딩 성능이 약 +8% 향상되었고, 해당 개선이 ExoLabs 환경에서도 작동한다는 업데이트입니다. 저비트 양자화(4bit) 기반 모델 최적화와 실사용 환경 호환성 측면에서 중요한 성능 개선 소식입니다.
Z.ai (@Zai_org)
GLM-4.5-Flash가 출시 14일 만에 Hugging Face에서 1백만 회 이상의 다운로드를 기록했습니다. 오픈소스 모델의 빠른 확산과 글로벌 개발자 커뮤니티의 활발한 채택을 보여주는 지표로 해석됩니다.
Cerebras (@cerebras)
GLM 4.7이 LM Arena의 상위 오픈소스 모델 중 하나로 평가되며 Claude Opus 4.5 및 Gemini Pro와 경쟁하고 있다는 내용입니다. @ml_angelopoulos(아레나 공동창업자 겸 CEO)와의 인터뷰를 바탕으로 8,000+ 개발자 투표를 분석한 결과, 수학·코딩 항목에서 Gemini Pro와 30점 이내 근접 성능을 보였다는 요지가 포함되어 있습니다.
Fascinación y decepción con OpenClaw
https://fed.brid.gy/r/https://javipas.com/2026/02/02/fascinacion-y-decepcion-con-openclaw/
金のニワトリ (@gosrum)
step-3.5-flash의 ts-bench 결과 발표: 벤치마크에서 GLM-4.7보다 낮은 점수를 기록했으며, gpt-oss-120b와는 동등하거나 그 이하 수준이라는 평가 결과를 공유.
https://x.com/gosrum/status/2018298305676238879
#benchmark #llm #step3.5flash #glm #gptoss
Cần hỗ trợ chạy mô hình GLM‑4.5 Air trên 2 GPU RTX Pro 6000 (Linux Fedora 43). Đã thử llama‑cpp, vLLM, ik_llama, sglang… vLLM chạy nhanh (~90 token/s) nhưng gặp vấn đề tool apply_diff; các công cụ khác chậm hoặc không khởi động. Ai có cấu hình thành công, hướng dẫn chi tiết, chia sẻ script? #AI #LLM #GLM #RTX6000 #Linux #vLLM #LlamaCPP #TríTuệNhânTạo #HọcMáy
https://www.reddit.com/r/LocalLLaMA/comments/1qsnoor/help_getting_glm_45_air_running_on_2x_rtx_pro/
Cerebras (@cerebras)
GLM 4.7은 강력한 오픈소스 코딩 모델 중 하나이지만 많은 개발자가 올바르게 프롬프트하지 못한다는 지적과 함께, 모델 활용을 극대화하기 위한 10가지 규칙을 제시합니다. 예시로 지시를 앞부분에 배치(강한 최신성 편향)하고, 'must' 같은 확고한 표현을 사용하는 방법 등을 권장하고 있습니다.
Zixuan Li (@ZixuanLi_)
GLM-4.7이 출시된 지 38일밖에 되지 않았지만 AI 업계의 상황이 급변해 수년이 지난 것처럼 느껴진다는 소감입니다. 작성자는 매일이 흥분과 불안의 소용돌이라며 빠르게 변하는 모델 출시·생태계의 변동성을 언급하고 있습니다.
GLM 4.7 Flash 30B PRISM + Web Search: Mô hình nhỏ nhưng hiệu năng ấn tượng! Hiệu quả trong suy luận, ít từ chối mềm, hỗ trợ tra cứu web giúp bù đắp kiến thức hạn chế. Phù hợp nghiên cứu đa chủ đề, chạy tốt trên LMStudio + OpenwebUI. Cực kỳ đáng thử cho ai dùng LLM cục bộ. #AI #LLM #GLM #PRISM #WebSearch #TríTuệNhânTạo #MôHìnhNgônNgữ #AIcucbo
https://www.reddit.com/r/LocalLLaMA/comments/1qqw3ov/glm_47_flash_30b_prism_web_search_very_solid/
Mô hình GLM 4.7 bị kẹt trong 1400 phút với 2000 dòng suy nghĩ. #GLM #AI #TríTuệNhânTạo #ArtificialIntelligence #MachineLearning #LocalLLaMA #MôHìnhTríTuệ
https://www.reddit.com/r/LocalLLaMA/comments/1qqbkk4/glm_47_flash_q6_thought_for_1400_minutes_2000/
Apollo (@ApollonVisual)
이번 달 LLM 릴리스가 꽤 활발했으며 주요 모델로 Kimi K.25, Qwen3 Max (Thinking), GLM 4.7 Flash, LFM 2.5 등이 하이라이트로 언급되었습니다. 또한 이 기간에 다수의 오픈소스 릴리스도 함께 배포된 것으로 보입니다.
Cerebras (@cerebras)
GLM4.7 해커톤 X 트랙 우승자가 발표되었습니다(공동주최: @cline). 우승자 @Maaztwts와 @enflect_는 상금 2,500 USD와 Cerebras Code 플랜을 수상했으며, 24시간 안에 FAST inference를 활용해 데스크탑 AI 어시스턴트를 구축한 점이 주요 내용입니다.
Mô hình Kimi K2.5 có hiệu suất tương tự Opus nhưng chỉ tốn gần 10% chi phí. Kimi K2.5 vượt trội GLM ở các nhiệm vụ ngoài trang web. #KimiK25 #Opus #GLM #MôHìnhMáyTính #AI #TríTuệNhânTạo #MachineLearning #ArtificialIntelligence
Alex Cheema - e/acc (@alexocheema)
GLM 4.7 Flash(8-bit)를 Tensor Parallel과 RDMA로 2대의 M4 Pro Mac Mini에서 구동해 초당 60토큰 처리 속도를 달성했습니다. mlx-lm 0.30.5는 긴 컨텍스트에서 GLM 4.7 Flash에 대해 대폭적인 속도 향상을 제공한다고 하며(@N8Programs, @awnihannun), 곧 출시될 M5 Pro(~1/28)는 프리필이 약 4배, 디코드는 약 1.3배 빨라질 예정입니다.