まつにぃ (@yugen_matuni)
GLM의 진화 속도에 놀라움을 표하며, 제시된 가격으로 이용할 수 있다면 여러 것이 파괴적으로 변화할 것 같아 기대된다는 감상입니다.
まつにぃ (@yugen_matuni)
GLM의 진화 속도에 놀라움을 표하며, 제시된 가격으로 이용할 수 있다면 여러 것이 파괴적으로 변화할 것 같아 기대된다는 감상입니다.
Shoei (@shoei05)
claude-glm을 GLM4.7로 열도록 설정해두면, 워커 LLM 쪽에서는 기본적으로 Opus4.6을 열어오는 동작이 발생하니 버전/설정 불일치에 주의하라는 알림입니다.
音声で予約・支払い完結、スマホ不要 中国で「車載決済エージェント」登場
#statstab #479 Different ways of calculating OLS regression coefficients (in R)
Thoughts: The are many ways to skin a variable...
#rstats #regression #modelling #tutorial #r #glm #ols #coding
Iaiso (@laiso)
Qwen code와 qwen3-coder-next 조합이 GLM 4.7 수준의 결과를 보였다는 보고(laiso/ts-bench PR). 해당 모델은 상위권 모델들 중 셀프호스트 요건이 가장 낮고, 외부 제공자 가격도 k2.5 대비 약 절반 수준으로 관측되어 성능 대비 호스팅 비용·자원 효율 측면에서 주목받고 있습니다.
Hunter (@huntermbown)
ZMLX가 GLM 4.7용 Flash 4bit 양자화에서 디코드 성능을 약 +8% 향상시켰으며, 해당 개선이 ExoLabs 환경에서도 작동한다고 보고했습니다.
Hunter (@huntermbown)
GLM 4.7 Flash 4bit에서 디코드 성능이 +8% 향상되었다는 보고. 해당 개선은 ZMLX에서 제공한 것으로 보이며, @exolabs 환경에서도 작동이 확인되었다고 언급됨.
Hunter (@huntermbown)
ZMLX의 GLM 4.7 Flash 4bit에서 디코딩 성능이 약 +8% 향상되었고, 해당 개선이 ExoLabs 환경에서도 작동한다는 업데이트입니다. 저비트 양자화(4bit) 기반 모델 최적화와 실사용 환경 호환성 측면에서 중요한 성능 개선 소식입니다.
Z.ai (@Zai_org)
GLM-4.5-Flash가 출시 14일 만에 Hugging Face에서 1백만 회 이상의 다운로드를 기록했습니다. 오픈소스 모델의 빠른 확산과 글로벌 개발자 커뮤니티의 활발한 채택을 보여주는 지표로 해석됩니다.
Cerebras (@cerebras)
GLM 4.7이 LM Arena의 상위 오픈소스 모델 중 하나로 평가되며 Claude Opus 4.5 및 Gemini Pro와 경쟁하고 있다는 내용입니다. @ml_angelopoulos(아레나 공동창업자 겸 CEO)와의 인터뷰를 바탕으로 8,000+ 개발자 투표를 분석한 결과, 수학·코딩 항목에서 Gemini Pro와 30점 이내 근접 성능을 보였다는 요지가 포함되어 있습니다.
Fascinación y decepción con OpenClaw
https://fed.brid.gy/r/https://javipas.com/2026/02/02/fascinacion-y-decepcion-con-openclaw/
金のニワトリ (@gosrum)
step-3.5-flash의 ts-bench 결과 발표: 벤치마크에서 GLM-4.7보다 낮은 점수를 기록했으며, gpt-oss-120b와는 동등하거나 그 이하 수준이라는 평가 결과를 공유.
https://x.com/gosrum/status/2018298305676238879
#benchmark #llm #step3.5flash #glm #gptoss
Cần hỗ trợ chạy mô hình GLM‑4.5 Air trên 2 GPU RTX Pro 6000 (Linux Fedora 43). Đã thử llama‑cpp, vLLM, ik_llama, sglang… vLLM chạy nhanh (~90 token/s) nhưng gặp vấn đề tool apply_diff; các công cụ khác chậm hoặc không khởi động. Ai có cấu hình thành công, hướng dẫn chi tiết, chia sẻ script? #AI #LLM #GLM #RTX6000 #Linux #vLLM #LlamaCPP #TríTuệNhânTạo #HọcMáy
https://www.reddit.com/r/LocalLLaMA/comments/1qsnoor/help_getting_glm_45_air_running_on_2x_rtx_pro/
Cerebras (@cerebras)
GLM 4.7은 강력한 오픈소스 코딩 모델 중 하나이지만 많은 개발자가 올바르게 프롬프트하지 못한다는 지적과 함께, 모델 활용을 극대화하기 위한 10가지 규칙을 제시합니다. 예시로 지시를 앞부분에 배치(강한 최신성 편향)하고, 'must' 같은 확고한 표현을 사용하는 방법 등을 권장하고 있습니다.
Zixuan Li (@ZixuanLi_)
GLM-4.7이 출시된 지 38일밖에 되지 않았지만 AI 업계의 상황이 급변해 수년이 지난 것처럼 느껴진다는 소감입니다. 작성자는 매일이 흥분과 불안의 소용돌이라며 빠르게 변하는 모델 출시·생태계의 변동성을 언급하고 있습니다.
GLM 4.7 Flash 30B PRISM + Web Search: Mô hình nhỏ nhưng hiệu năng ấn tượng! Hiệu quả trong suy luận, ít từ chối mềm, hỗ trợ tra cứu web giúp bù đắp kiến thức hạn chế. Phù hợp nghiên cứu đa chủ đề, chạy tốt trên LMStudio + OpenwebUI. Cực kỳ đáng thử cho ai dùng LLM cục bộ. #AI #LLM #GLM #PRISM #WebSearch #TríTuệNhânTạo #MôHìnhNgônNgữ #AIcucbo
https://www.reddit.com/r/LocalLLaMA/comments/1qqw3ov/glm_47_flash_30b_prism_web_search_very_solid/
Mô hình GLM 4.7 bị kẹt trong 1400 phút với 2000 dòng suy nghĩ. #GLM #AI #TríTuệNhânTạo #ArtificialIntelligence #MachineLearning #LocalLLaMA #MôHìnhTríTuệ
https://www.reddit.com/r/LocalLLaMA/comments/1qqbkk4/glm_47_flash_q6_thought_for_1400_minutes_2000/
Apollo (@ApollonVisual)
이번 달 LLM 릴리스가 꽤 활발했으며 주요 모델로 Kimi K.25, Qwen3 Max (Thinking), GLM 4.7 Flash, LFM 2.5 등이 하이라이트로 언급되었습니다. 또한 이 기간에 다수의 오픈소스 릴리스도 함께 배포된 것으로 보입니다.