#glm

まつにぃ (@yugen_matuni)

GLM의 진화 속도에 놀라움을 표하며, 제시된 가격으로 이용할 수 있다면 여러 것이 파괴적으로 변화할 것 같아 기대된다는 감상입니다.

x.com/yugen_matuni/status/2020

#glm #llm #ai #pricing

Shoei (@shoei05)

claude-glm을 GLM4.7로 열도록 설정해두면, 워커 LLM 쪽에서는 기본적으로 Opus4.6을 열어오는 동작이 발생하니 버전/설정 불일치에 주의하라는 알림입니다.

x.com/shoei05/status/201989992

#claudeglm #glm #opus #llm

36Kr Japan | 最大級の中国テック・スタートアップ専門メディア36kr.jp@web.brid.gy
2026-02-06

音声で予約・支払い完結、スマホ不要 中国で「車載決済エージェント」登場

fed.brid.gy/r/https://36kr.jp/

<p>コネクテッドカー向けソフトウエアを手がける「極豆科技(JDO)」、人工知能(AI)企業「智譜AI(Zhipu AI)」、 中国銀聯(ユニオンペイ)はこのほど、業界初となる「車載ネイティブ決済エージェント」を上海市で共同発表した。音声操作を前提に車載システムへ組み込まれた決済機能で、スマートカーにおける支払い体験を再定義する。</p>
<p>新たな仕組みでは、ユーザーは給油や駐車、フードデリバリー等のサービスを車内で利用する際、スマートフォンを取り出したりアプリを切り替えることなく、車内で音声指示を出すだけで、検索から予約、支払いまでを完結できる。</p>
<p>従来の車載決済は、スマートフォンとの連携やアプリ追加に依存していた。これに対し、今回のソリューションは、決済機能そのものをスマートコックピットの基盤に統合し、車載システム内で一体的に処理する点が特徴だ。たとえば、「近くで安い充電スタンドを探して」と話しかけると、システムがナビゲーションを起動し、料金の比較、予約、決済までを自動で実行する。操作はすべて音声で行われ、手動操作は不要となる。</p>
<blockquote class="wp-embedded-content"><p><a href="https://36kr.jp/335291/">「車が人に合わせて動く」 中国スタートアップ、AIでスマートコックピットを再定義</a></p></blockquote>
<p></p>
<p>技術面では、智譜AIが提供する汎用性言語モデル(GLM)を認知エンジンとして採用。曖昧な表現やマルチターンな会話を含み、文脈に依存する車載音声を正しく理解することが可能となった。極豆科技は10年にわたるコックピット開発経験に基づき、タスクの精密な編成・制御を実現した。さらに、中国銀聯はモデル・コンテキスト・プロトコル(MCP)を用いた決済連携の仕組みにより、取引が金融レベルのセキュリティと規制要件を満たすようにした。</p>
<blockquote class="wp-embedded-content"><p><a href="https://36kr.jp/452711/">中国AIユニコーン「Zhipu」、香港上場 LLM企業として世界初</a></p></blockquote>
<p></p>
<p>現時点で、給油・駐車・車載エンターテインメントなどのサービスに対応しており、各自動車メーカーのプラットフォームにも柔軟に組み込めるという。3社は今後、ヘルスケアや日常消費などの分野にも適用範囲を広げ、スマートコックピットを「移動する生活サービス基盤」へと進化させていく方針だ。</p>
<p>(36Kr Japan編集部)</p>
Dr Mircea Zloteanu ❄️☃️🎄mzloteanu
2026-02-05

#479 Different ways of calculating OLS regression coefficients (in R)

Thoughts: The are many ways to skin a variable...

thomvolker.github.io/blog/2506

2026-02-05

El tema hoy con los #SOTA esta candente

Por un lado #Anthropic lanzando #opus 4.6 (meh)
Por otro #openAI lanzando #GPT 5.3 #codex (mas meh)

Mientras, yo dandole cariño a kimi y probando en local #GLM

undefined

Iaiso (@laiso)

Qwen code와 qwen3-coder-next 조합이 GLM 4.7 수준의 결과를 보였다는 보고(laiso/ts-bench PR). 해당 모델은 상위권 모델들 중 셀프호스트 요건이 가장 낮고, 외부 제공자 가격도 k2.5 대비 약 절반 수준으로 관측되어 성능 대비 호스팅 비용·자원 효율 측면에서 주목받고 있습니다.

x.com/laiso/status/20193446155

#qwen #qwen3 #glm #selfhosting #modelbenchmark

Hunter (@huntermbown)

ZMLX가 GLM 4.7용 Flash 4bit 양자화에서 디코드 성능을 약 +8% 향상시켰으며, 해당 개선이 ExoLabs 환경에서도 작동한다고 보고했습니다.

x.com/huntermbown/status/20190

#glm #quantization #4bit #zmlx #exolabs

Hunter (@huntermbown)

GLM 4.7 Flash 4bit에서 디코드 성능이 +8% 향상되었다는 보고. 해당 개선은 ZMLX에서 제공한 것으로 보이며, @exolabs 환경에서도 작동이 확인되었다고 언급됨.

x.com/huntermbown/status/20190

#glm #4bit #quantization #zmlx #exolabs

Hunter (@huntermbown)

ZMLX의 GLM 4.7 Flash 4bit에서 디코딩 성능이 약 +8% 향상되었고, 해당 개선이 ExoLabs 환경에서도 작동한다는 업데이트입니다. 저비트 양자화(4bit) 기반 모델 최적화와 실사용 환경 호환성 측면에서 중요한 성능 개선 소식입니다.

x.com/huntermbown/status/20190

#glm #quantization #4bit #zmlx #exolabs

Z.ai (@Zai_org)

GLM-4.5-Flash가 출시 14일 만에 Hugging Face에서 1백만 회 이상의 다운로드를 기록했습니다. 오픈소스 모델의 빠른 확산과 글로벌 개발자 커뮤니티의 활발한 채택을 보여주는 지표로 해석됩니다.

x.com/Zai_org/status/201887586

#glm4.5 #glm #huggingface #opensource #downloads

Cerebras (@cerebras)

GLM 4.7이 LM Arena의 상위 오픈소스 모델 중 하나로 평가되며 Claude Opus 4.5 및 Gemini Pro와 경쟁하고 있다는 내용입니다. @ml_angelopoulos(아레나 공동창업자 겸 CEO)와의 인터뷰를 바탕으로 8,000+ 개발자 투표를 분석한 결과, 수학·코딩 항목에서 Gemini Pro와 30점 이내 근접 성능을 보였다는 요지가 포함되어 있습니다.

x.com/cerebras/status/20187312

#glm #opensource #llm #benchmarks

金のニワトリ (@gosrum)

step-3.5-flash의 ts-bench 결과 발표: 벤치마크에서 GLM-4.7보다 낮은 점수를 기록했으며, gpt-oss-120b와는 동등하거나 그 이하 수준이라는 평가 결과를 공유.

x.com/gosrum/status/2018298305

#benchmark #llm #step3.5flash #glm #gptoss

ニケちゃん (@tegnike)

Kimi 2.5가 무료로 제공된다는 사실에 놀라며 감사 인사와 함께 GLM도 확인해보겠다고 한 내용의 트윗으로, 모델의 무료 배포 가능성을 언급하고 있음.

x.com/tegnike/status/201823504

#kimi #kimi2.5 #glm #ai #llm

2026-02-01

Cần hỗ trợ chạy mô hình GLM‑4.5 Air trên 2 GPU RTX Pro 6000 (Linux Fedora 43). Đã thử llama‑cpp, vLLM, ik_llama, sglang… vLLM chạy nhanh (~90 token/s) nhưng gặp vấn đề tool apply_diff; các công cụ khác chậm hoặc không khởi động. Ai có cấu hình thành công, hướng dẫn chi tiết, chia sẻ script? #AI #LLM #GLM #RTX6000 #Linux #vLLM #LlamaCPP #TríTuệNhânTạo #HọcMáy

reddit.com/r/LocalLLaMA/commen

Cerebras (@cerebras)

GLM 4.7은 강력한 오픈소스 코딩 모델 중 하나이지만 많은 개발자가 올바르게 프롬프트하지 못한다는 지적과 함께, 모델 활용을 극대화하기 위한 10가지 규칙을 제시합니다. 예시로 지시를 앞부분에 배치(강한 최신성 편향)하고, 'must' 같은 확고한 표현을 사용하는 방법 등을 권장하고 있습니다.

x.com/cerebras/status/20173193

#glm #glm4.7 #prompting #codingmodel

Zixuan Li (@ZixuanLi_)

GLM-4.7이 출시된 지 38일밖에 되지 않았지만 AI 업계의 상황이 급변해 수년이 지난 것처럼 느껴진다는 소감입니다. 작성자는 매일이 흥분과 불안의 소용돌이라며 빠르게 변하는 모델 출시·생태계의 변동성을 언급하고 있습니다.

x.com/ZixuanLi_/status/2017145

#glm4.7 #glm #llm #ai

2026-01-30

GLM 4.7 Flash 30B PRISM + Web Search: Mô hình nhỏ nhưng hiệu năng ấn tượng! Hiệu quả trong suy luận, ít từ chối mềm, hỗ trợ tra cứu web giúp bù đắp kiến thức hạn chế. Phù hợp nghiên cứu đa chủ đề, chạy tốt trên LMStudio + OpenwebUI. Cực kỳ đáng thử cho ai dùng LLM cục bộ. #AI #LLM #GLM #PRISM #WebSearch #TríTuệNhânTạo #MôHìnhNgônNgữ #AIcucbo

reddit.com/r/LocalLLaMA/commen

Apollo (@ApollonVisual)

이번 달 LLM 릴리스가 꽤 활발했으며 주요 모델로 Kimi K.25, Qwen3 Max (Thinking), GLM 4.7 Flash, LFM 2.5 등이 하이라이트로 언급되었습니다. 또한 이 기간에 다수의 오픈소스 릴리스도 함께 배포된 것으로 보입니다.

x.com/ApollonVisual/status/201

#llm #opensource #qwen #glm #kimi

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst