#Ministral

𝗣𝗠𝗝 ⚫pmj@social.pmj.rocks
2026-01-24

hui, ministral-3 mit kontext 32k füllt mein vRAM bis auf 100MB (12GB RTX 3060) 🙃

hat aber mein (eher einfaches) bullshitbingo php projekt 1a analysiert
#KI #homelab #nanocoder #ollama #ministral

das nächste bittedirksche@social.tchncs.de
2025-12-29

Hab auf #ollama das laut ollama.com 2 Monate alte Ministral3 installiert und laufen lassen. Das Modell ist auf dem Stand von Oktober 2023. Leider kann man der offiziellen Seite nur entnehmen, seit wann das Modell zur Verfügung steht und nicht auf welchem Stand es ist.
#raspberrypi #ki #llm #ministral

Anita Graser 🇪🇺🇺🇦🇬🇪underdarkGIS@fosstodon.org
2025-12-27

I've added an interactive client script today. Makes it easier to play around and discover all the ways to break our little assistant:

#GISChat #QGIS #FastMCP #ministral

𝗣𝗠𝗝 ⚫pmj@social.pmj.rocks
2025-12-26

yes - habs mit #opencoder endlich geschafft dass #ministral 8B #code für mich schreibt...
... also tatsächlich in eine datei schreibt

jetzt muss ich nur noch gucken ob das mit #nanocoder auch funktioniert
#KI #homelab

2025-12-23

exllamav3 đã cập nhật, bổ sung hỗ trợ cho các mô hình AI mới như GLM 4.7, GLM 4.6V, Ministral và OLMO 3. Đây là tin tức tuyệt vời cho cộng đồng AI địa phương!
#exllamav3 #AI #LLM #GLM #Ministral #OLMO3 #LocalAI #MôHìnhAI #TríTuệNhânTạo #HỗTrợAI

reddit.com/r/LocalLLaMA/commen

2025-12-20

Anyone who wants Edge LLM on their iPhone but has an iPhone < 15 Pro like me: you can run #Ministral 3B through Locally AI app, which is quite good and even has vision capabilities. Offline summarization, data extraction, image description etc.! Also, it was created by an EU company 🇪🇺

Jens Comiotto-Mayerjcm@norden.social
2025-12-13

Mit dem aktuellen Update der #LMStudio #MLX Runtime (0.36.1) laufen seit heute auch die Ministral- und Devstral-Modelle im entsprechenden Format.

ministral-3-14b-reasoning liefert dabei auf meinem 2022er MacBook Pro M1 brauchbare 16tok/sec - dem #LLM beim "Denken" zuzugucken ist dabei recht amüsant: Im Vergleich zu anderen Reasoning-Modellen finde ich es irgendwie sympathisch "verkopft" und unentschlossen.

#ministral #devstral

H@R0👨🏻‍💻quetalocatl
2025-12-11

原版的 Q4KM 和 的Q4 UD版體積只差一點點,但 3 3B則差了大概1G

H@R0👨🏻‍💻quetalocatl
2025-12-11

試用了一下 3 3B 對比 4b 2507,Qwen3的中文寫作能力要好一點。還測試了 的Q4 UD版,使用上沒感覺到任何區別,但它的Q4體積會大一點,在我的8G A2000顯卡上運行有點壓力

Alexey Skobkinskobkin@gts.skobk.in
2025-12-03

Только недавно мысленно грустил о том, что давно не выходило значительных открытых LLM, которые можно селфхостить как подвезли Ministral 3.

Надо будет попробовать её в Home Assistant. На первый взгляд выглядит неплохо: даже 3B модель умеет в tool calling и даже такая маленькая версия прилично говорит по-русски.

#LLM #log #news #Mistral #home #HomeAssistant #voice #Ministral

Jukka Niiranenjukkan@mstdn.social
2025-12-02

Today, websites load hundreds of scripts for ad tracking.

Tomorrow, every website will load their own LLM into your browser.

This is the new #Mistral 3B model running in WebGPU, loaded to my Chrome in a few seconds, live streaming my webcam, reliably detecting objects in the video stream.

It's wonderful and scary. Like technology often is.

Try #Ministral #WebGPU demo on #HuggingFace: huggingface.co/spaces/mistrala

Ministral 3B model detecting objects from my webcam's live feed, running fully locally in the browser.
Ryan He (帳號已遷移到其他站台)ryanhe@pastwind.top
2024-11-11

因為某篇文章提到 Google 的開源 #LLM - #Gemma 2 2B 與 9B 很適合用來做翻譯,便拿來測試看看。

測試的方式是拿一段英文翻譯為繁體中文。
2B 參數的版本不支援繁體中文,而 9B 的版本支援,翻譯的品質還是勉勉強強,這是跟 DeepL 相比。

除此之外還順便測試 Mistral 最新的
#Ministral ,他們的介紹網頁上表示 Ministral 3B 的多語言的評分比 Gemma 2 2B 高,測試輸出繁體中文還是會出現一些簡體,而翻譯的品質則完全比不上 Gemma 2。

看來很適合拿 Gemma 2 微調專門作為翻譯使用。

2024-10-19

🧠 La competizione sui #LLM "piccoli" inizia a diventare interessante quanto quella sui modelli "grandi".
#Mistral rilascia due nuovi modelli destinati all'elaborazione on-device e a casi d'uso at-the-edge: #Ministral 3B e 8B.
👉 Offrono prestazioni avanzate in ambiti come la comprensione del contesto, il "ragionamento" e l'efficienza, con contesti fino a 128k token. 
💡 Sono pensati per applicazioni come traduzione on-device, assistenti intelligenti offline e robotica autonoma. 

#AI #GenAI

I nuovi modelli di MistralI nuovi modelli di Mistral

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst