#Devstral

2026-01-21

Hướng dẫn nhanh cấu hình Aider với mô hình local: tạo 3 file trong ~/.
1️⃣ ~/.aider.conf.yml → endpoint, API‑key, model và đường dẫn file khác.
2️⃣ ~/.aider.model.settings.yml → định dạng diff, repo map, v.v.
3️⃣ ~/.aider.model.metadata.json → max tokens, chi phí.
Lưu ý: luôn prepend “openai/” vào model ID; Aider sẽ tự xóa khi gửi tới server. #Aider #CấuHình #LLM #OpenAI #Mistral #Devstral #Linux

reddit.com/r/LocalLLaMA/commen

2026-01-09

Mistral Devstral-Small-2-24B đang nổi lên như "ông vua" mới cho lập trình local trên hệ thống 72GB VRAM (3xRTX 3090).

Điểm mạnh vượt trội:
- Chạy mượt ở định dạng Q8 với context window lớn (>150k token).
- Hỗ trợ xử lý hình ảnh (Multimodal) giúp kiểm tra UI/UX và sơ đồ thiết kế.
- Tốc độ phản hồi cực nhanh khi nằm trọn trong VRAM.
- Khả năng tuân thủ chỉ dẫn tốt khi kết hợp với các Agent như Kilo Code.

#MistralAI #Devstral #AI #Coding #LocalLLM #VRAM #AIProgramming #LậpTrình #CôngNghệ

https:/

2026-01-09

Trải nghiệm lập trình local với Devstral Small 2 (24B) trên card RTX 5060 Ti 16GB cực mượt!

🔹 Setup: Devstral-Small-2 (Q4_K_M), context 24k, chạy hoàn toàn trên 16GB VRAM.
🔹 Tốc độ: Xử lý prompt ~650 tok/s, tạo token 9-11 tok/s.
🔹 Kết hợp: Dùng với Zed Agent mang lại hiệu quả cao hơn Claude Code nhờ hệ thống prompt ngắn gọn.
🔹 Chất lượng: Xử lý tốt các tác vụ code phức tạp, tự động đọc file, chạy lệnh test và sửa lỗi khi có hướng dẫn chi tiết.

#AI #Coding #Devstral #LLM #LocalAI #Programmi

2025-12-25

🔧 #OpenRouter launches Response Healing: automatically fixes malformed #JSON responses from #LLMs before they reach your app #AI #API #devops

📊 Results from 1.6M+ requests analyzed at inference time:
#Gemini 2.0 Flash: 80% defect reduction (99.61% → 99.92%)
#Qwen3 235B: 99.8% defect reduction (88% → 99.98%)
#Deepseek Chat v3.1: 85% defect reduction (82.5% → 97.4%)
#Devstral 2512: 99.6% defect reduction (96.6% → 99.99%)

🧵 👇

2025-12-17

Cập nhật bảng xếp hạng SWE-rebench tháng 11/2025 với các mô hình mới: **Claude Code**, **GPT-5.2**, **DeepSeek v3.2** (mô hình mã nguồn mở tiên tiến) và **Devstral 2** (chạy cục bộ). Các hệ thống thử nghiệm 47 nhiệm vụ hợp quy GitHub mới, cải thiện minh bạch với chỉ số **cached-tokens**.

#AI #DeepSeek #Devstral #LậpTrình #SWEbench #MôHìnhAI #TechVN

reddit.com/r/LocalLLaMA/commen

2025-12-13

Mistral released new coding models:

* Devstral 2 (123 B)
* Devstral Small 2 (24 B)

mistral.ai/news/devstral-2-vib

Plus, Mistral Vibe CLI, a CLI based coding agent:
github.com/mistralai/mistral-v

I didn't even have a chance yet to try out Mistral 3 Large. According to their benchmark, Devstral 2 is competing with the best open weight models (DeepSeek V3.2). Not quite at the level of the best closed-sources ones, but more cost-efficient:

> Devstral 2 is currently offered free via our API. After the free period, the API pricing will be $0.40/$2.00 per million tokens (input/output) for Devstral 2 and $0.10/$0.30 for Devstral Small 2.

Devstral Small 2 can be run locally on a 24 GB GPU.

#mistral #ai #devstral

Jens Comiotto-Mayerjcm@norden.social
2025-12-13

Mit dem aktuellen Update der #LMStudio #MLX Runtime (0.36.1) laufen seit heute auch die Ministral- und Devstral-Modelle im entsprechenden Format.

ministral-3-14b-reasoning liefert dabei auf meinem 2022er MacBook Pro M1 brauchbare 16tok/sec - dem #LLM beim "Denken" zuzugucken ist dabei recht amüsant: Im Vergleich zu anderen Reasoning-Modellen finde ich es irgendwie sympathisch "verkopft" und unentschlossen.

#ministral #devstral

Rod2ik 🇪🇺 🇨🇵 🇪🇸 🇺🇦 🇨🇦 🇩🇰 🇬🇱 ☮🕊️rod2ik.bsky.social@bsky.brid.gy
2025-12-11

La #start-up #française #Mistral se lance dans la course au #vibe-coding et publie #Devstral 2 sous une #licence #MIT modifiée? une nouvelle génération de son modèle d' #IA #AI conçu pour le #codage #dev #tech #FrenchTech #frenchtech #france intelligence-artificielle.developpez.com/actu/378346/...

La start-up fran�aise Mistral ...

2025-12-11

Нейро-дайджест: ключевые события мира AI за 2-ю неделю декабря 2025

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась насыщенной: Mistral выкатили Devstral 2 , Photoshop, Express и Acrobat встроили прямо в ChatGPT , а исследования показывают, что более 80% вайб-кода могут содержать уязвимости. Криштиану Роналду инвестирует в Perplexity, а Сэм Альтман считает, что сейчас невозможно воспитывать детей без ИИ. Всё самое важное — в одном месте. Поехали! Читать дайджест →

habr.com/ru/companies/timeweb/

#новости #ии #дайджест #нейросети #devstral #openrouter #timeweb_дайджест #искусственный_интеллект #perplexity #сэм_альтман

2025-12-10

Cả hai mô hình Devstral-Small-2-24B q6k (Unsloth và Bartowski) đều bị lặp vô hạn khi chạy trên llama.cpp với ngữ cảnh 24k token. Người dùng báo cáo đã thử nhiều thiết lập (-cache-type-k q8_0, n-gpu-layers 99) nhưng lỗi vẫn xảy ra. Câu hỏi: Q6 có bị lỗi? Cần thêm flags mới không? #AI #MachineLearning #MôHìnhLLM #LỗiCông Nghệ #VietnamAI #LlamaCPP #Devstral

reddit.com/r/LocalLLaMA/commen

2025-12-10

👉 Đánh giá 4 mô hình LLM trong thử thách lập trình: theo dõi chi tiêu đa tiền tệ. 🥇 Claude Opus (88/100) vượt trội, 🥈 Sonnet (86) hiện đại, 🥉 Devstral 2 (85) toàn diện về kiểm tra lỗi, còn OpenCode (62) yếu kém, thiếu type hints. Devstral 2 tiềm năng! #LLM #AI #Python #Devstral #Mistral #OpenCode #Benchmark #Côngnghệ

reddit.com/r/LocalLLaMA/commen

2025-12-10

My favorite thing about Mistral's new Vibe CLI is simply that it is open source so I can learn from it!

There are so many different frameworks and techniques for agents these days, it is nice to see the plumbing and examine how it works together. (And in #Python, bless you ❤️).

Also excited about the new "Devstral 2" code models. I'm a Mistral fan in general. Mistral:7b is still a great model for tuning.

#mistral #ai #devstral

N-gated Hacker Newsngate
2025-12-09

✨ Behold, a groundbreaking update from the Future where releases 2 with a whopping 72.2% of -Bench verification, because, apparently, real-world utility is soooo last century. 🤖 Meanwhile, the Vibe CLI promises to take your coding monotony to new heights of agentic glory, because who doesn't want their command line to have vibes? 📟🚀
mistral.ai/news/devstral-2-vib

Hacker Newsh4ckernews
2025-12-09

Mistral Releases Devstral 2 (72.2% SWE-Bench Verified) and Vibe CLI

mistral.ai/news/devstral-2-vib

-Bench

2025-11-12

@ankoeln @muellertadzio Ein mglw. relevanter LLM-Skill mag das selber-Hosten auf eigener Hardware sein. Geht auch für Schönschreibtools.

Dabei helfe ich im Sinne der von Herrn Matzat geforderten "Auseinandersetzung mit der Technologie" gerne, denn mit dem Punkt [wir sollten] "zugewandt, freundlich, hilfsbereit und geduldig agieren" hat er natürlich Recht.

#Ollama #Devstral #LanguageTool

2025-08-05

Mistral AI: Europe’s Bold Answer to Big Tech 🇫🇷

Launched in 2023, Mistral AI is shaking up the AI world with open-source models, local trust, and rapid innovation. Its chatbot Le Chat hit 1M+ downloads after President Macron's endorsement, and its model zoo (like Devstral, Magistral, and Voxtral) is powering everything from code to speech.

#MistralAI #LeChat #OpenSourceAI #FrenchTech #AIForAll #Devstral #MistralCompute #EuropeanAI #TECHi

Read Full Article Here :- techi.com/mistral-ai-french-op

Quinn Comendantcom
2025-07-30

Current AI coding status… 🫠

(It’s generating a `background: url('data:image/png;base64, …');` but I think it got stuck in a loop, or generating an uncompressed uniform color area.

🧿🪬🍄🌈🎮💻🚲🥓🎃💀🏴🛻🇺🇸schizanon
2025-07-29

> While there are many clones of out there, if your goal is to learn this technology on a deeper level, I feel there are still significant benefits to building your own agent, and working closely with the models.

Local LLM Agents - Do they work?

hexeditreality.com/posts/local

2025-07-23

Someone just sold his ROG FLow Z13 ($2,500) laptop for a MacBook M4 Pro in less than a day. Figured out recently.

Why? Fed up with ROCm support. "Fuck this shit". Had a meltdown morning.

Hope devs learn the lesson: software first, promises later.

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst