#OpenWeights

Artificial Analysis (@ArtificialAnlys)

NVIDIA가 Nemotron 3 Super를 공개했다. 120B(활성 12B) 규모의 오픈 가중치(reasoning) 모델로, 하이브리드 Mamba-Transformer MoE 아키텍처를 채용했으며 Artificial Analysis Intelligence Index에서 36점을 기록했다고 보고되었다. 작성자는 출시 전 접근권으로 모델을 평가했다고 언급해 성능 검증이 일부 이루어졌음을 시사한다.

x.com/ArtificialAnlys/status/2

#nvidia #nemotron #moe #transformer #openweights

2026-03-04

Can anyone recommend a privacy friendly SaaS #llm #inference provider? It needs to support *function calling* on at least one of the more recent #openweights models:

- gpt-oss
- Olma3
- Apertus? (I did not yet succeed using it)

There should be some level of cost control. Ideally a hourly rate limit. European solutions are preferred.

Use case is to have a fallback for demos or experiments where local inference is not practical. Monthly costs should go towards 0 when not used.

#selfhosting

2026-02-27

« J'ai découvert le modèle Open Weights GLM-5 »

notes.sklein.xyz/2026-02-27_17

#LLM #OpenWeights #TIL #GLM5

tomaarsen (@tomaarsen)

Perplexity AI가 검색(retrieval)용으로 설계된 4개의 오픈-웨이트(state-of-the-art) 다국어 임베딩 모델을 공개했습니다. 대표 모델로 pplx-embed-v1과 pplx-embed-context-v1이 있으며, int8 및 바이너리 임베딩에 특화되어 대규모 검색 문제에 적합하도록 훈련되었다고 알립니다.

x.com/tomaarsen/status/2027392

#perplexity #embeddings #openweights #retrieval #pplxembed

DrBusySlothdrbusysloth
2026-02-25

Great resource for open-weight LLM releases, covering 10 architectures from early 2026. A whirlwind tour of how diverse open models are evolving and converging architecturally. 

What stands out:
• hybrid attention & MoE are showing up everywhere
• smaller models are pushing hard on coding/efficiency
• the open-weight ecosystem is very active right now

Fascinating how fast these are evolving 🦥
magazine.sebastianraschka.com/

Artificial Analysis (@ArtificialAnlys)

Tri-21B-think Preview의 가중치(모델 weights)가 Hugging Face에 업로드되어 링크로 제공되었음을 알리는 안내입니다. 공개 가중치 배포를 통해 개발자 및 연구자가 모델을 직접 다운로드해 실험할 수 있습니다.

x.com/ArtificialAnlys/status/2

#huggingface #openweights #tri21b #modelhub

Artificial Analysis (@ArtificialAnlys)

한국 AI 스타트업 Trillion Labs가 소형 오픈 웨이트 추론 모델 'Tri-21B-think Preview'를 발표했습니다. 이 모델은 Artificial Analysis Intelligence Index에서 20점을 기록했으며, 작은 모델 치고는 높은 수준의 지능을 보여주나 동급 최상위 수준은 아닌 것으로 평가되었습니다. 공개 가중치 기반의 추론 모델로 주목됩니다.

x.com/ArtificialAnlys/status/2

#trillionlabs #tri21b #openweights #reasoning #aimodel

Qwen (@Alibaba_Qwen)

Qwen3.5-397B-A17B-FP8 모델 가중치가 공개되었다는 발표입니다. SGLang 지원이 병합되었고 vLLM용 PR이 제출되어(vLLM 리포 연동 예정) 주요 추론 프레임워크에서 곧 사용 가능해진다는 기술·오픈소스 업데이트를 알립니다. 모델 카드와 예제 코드도 제공됩니다.

x.com/Alibaba_Qwen/status/2024

#qwen3.5 #openweights #vllm #sglang

Qwen (@Alibaba_Qwen)

Qwen3.5-397B-A17B-FP8 모델의 가중치가 공개되었습니다. 추론 프레임워크 적응이 진행되었고 SGLang 지원이 병합되었으며 vLLM에 대한 PR이 제출되어 곧 vLLM 지원이 도입될 예정입니다. 모델 카드에 예제 코드가 포함되어 있어 개발자들이 곧바로 테스트하고 배포할 수 있습니다.

x.com/Alibaba_Qwen/status/2024

#qwen3.5 #openweights #vllm #sglang #inference

Design Arena (@Designarena)

GLM-5가 Design Arena에서 전체 3위를 기록했으며, 오픈 웨이트 모델 중에서는 다시 1위를 되찾았다는 소식입니다. 또한 Design Arena 상위 10위 중 오픈 웨이트 모델이 50%를 차지하게 되었고, 이 성과를 이룬 Zai_org 팀에 대한 축하 메시지를 전하고 있습니다.

x.com/Designarena/status/20224

#glm #openweights #benchmark #designarena

Simon Willison (@simonw)

open weights로 공개된 GLM-5(1.5TB)가 등장했다는 트윗으로, 모델이 이미지 생성(예: 자전거 타는 펠리컨)도 수행할 수 있음을 언급합니다. 공개 가중치와 대용량(1.5TB)이라는 점에서 연구·개발자들이 모델을 직접 실험해볼 수 있는 기회를 제공합니다.

x.com/simonw/status/2021665936

#glm5 #openweights #llm #ai

GLM-5가 오픈 가중치 모델의 새 리더로 등장했다. 인텔리전스 지수 50(GLM-4.7의 42 → +8), 에이전트 지수 63 및 GDPval-AA ELO 1412로 실무 성능 대폭 향상. 환각률 56pp 감소(AA-Omniscience -1). 규모 744B/40B, BF16 약 1.5TB, 200K 컨텍스트, MIT 라이선스, API로 배포.

x.com/ArtificialAnlys/status/2

#glm5 #openweights #ai #benchmarks #llm

2026-02-11

"Open" LLM models are almost never Open Source.

They are "Open Weights." This means the company allows you to run the model, but you have no right to see how it was made or what data it was trained on.

We need to stop letting companies redefine "Open Source" to mean "available for download." Words have meanings.

If a company claims they are open source but plans to "someday" release the code, or hides the training data, they are a poser. This is "Open Washing." They are co-opting the term to earn the community's goodwill for marketing without actually respecting the four freedoms.

#NoAI #FOSS #OpenSource #GNULinux #GNU #Linux #Privacy #OpenWashing #OpenWeights #OpenWashing #NotOpenSource #TechEthics #FreeSoftware #Fediverse #AIHype #Enshittification #DigitalSovereignty

金のニワトリ (@gosrum)

작성자는 '50만 엔이면 사고 싶다'고 말하면서, 오픈 웨이트로 Opus 4.5급 성능이 나오더라도 그걸 돌릴 수 있는 수준의 PC를 50만 엔에 살 수 있을지는 의문이라고 지적합니다. 즉, 오픈 모델의 공개와 실제 운용 가능한 하드웨어 비용 간의 격차를 우려하는 내용입니다.

x.com/gosrum/status/2020418267

#opus #openweights #model #hardware #ai

Erik JonkerErikJonker
2026-02-04

Only just recently had some time to read the Kimi K2.5 technical report , an impressive open weights model (it's not fully opensource), the distance towards large paid proprietary foundation models is becoming very small.
github.com/MoonshotAI/Kimi-K2.
It also feels that way in use:
kimi.com/chat

Wan (@Alibaba_Wan)

Qwen3-Coder-Next 출시 발표: 차세대 자율 코딩 에이전트를 목표로 설계된 오픈 가중치(open-weights) 모델로, Qwen3-Next를 기반으로 복잡하고 장기적인 프로그래밍 작업을 효율적으로 처리하도록 엔지니어링되었다는 내용입니다.

x.com/Alibaba_Wan/status/20188

#qwen #coder #openweights #codingagents

BrainMirror AI (@brainmirrorai)

Lex Fridman 팟캐스트에서 연구자 Nathan Lambert와 Sebastian Raschka가 2026년의 AI 지형 변화를 논의합니다. 에피소드에서 중국산 오픈-웨이트(open-weight) 모델의 부상 등 최근 트렌드와 연구 방향 변화를 다루며 향후 모델 개발·배포에 미칠 영향들을 탐색합니다.

x.com/brainmirrorai/status/201

#lexfridman #machinelearning #openweights #chineseai #podcast

Erik JonkerErikJonker
2026-01-28

New open weights model Kimi K2.5
"self-directed agent swarm paradigm" ,
"For complex tasks, Kimi K2.5 can self-direct an agent swarm with up to 100 sub-agents, executing parallel workflows across up to 1,500 tool calls. Compared with a single-agent setup, this reduces execution time by up to 4.5x. The agent swarm is automatically created and orchestrated by Kimi K2.5 without any predefined subagents or workflow."
simonwillison.net/2026/Jan/27/

Artificial Analysis (@ArtificialAnlys)

Moonshot의 오픈 가중치 모델 Kimi K2.5가 오픈 모델군에서 선두로 부상했습니다. OpenAI·Anthropic·Google 모델만 앞서며, Kimi K2.5는 GDPval-AA 벤치마크에서 Elo 1309를 기록해 에이전트(agentic) 작업에서 인상적인 성능을 보여 오픈 가중치 LLM 성능 경쟁에 큰 영향을 줄 가능성이 있습니다.

x.com/ArtificialAnlys/status/2

#moonshot #kimik2.5 #openweights #llm

Min Choi (@minchoi)

MiniMax Agent가 MiniMax M2.1 기반으로 대규모 업그레이드를 발표했습니다. Clawdbot, Claude Cowork, Agent Skills를 하나로 통합했으며 코드 지원, 모바일·웹 UI 미려화, 속도·비용 개선 및 오픈 웨이트 제공을 강조합니다. 데모로 틱톡 클론 등 와일드한 예시가 소개되어 개발자·제품 측면에서 주목되는 릴리스입니다.

x.com/minchoi/status/201628822

#minimax #agents #m2.1 #openweights

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst