#swissai

2025-10-03

Got the 🇨🇭 #SwissAI #Apertus model - one of the very few completely opensource LLMs - running locally!

Next step: finetuning on historical low-resource languages (like Middle High German).

#FOSS #LLM #ParzivAI #Mittelhochdeutsch

who are you?
I'm Apertus, a helpful assistant created by the SwissAI initiative. My knowledge cutoff date is April 2024. I'm here to assist and provide information to the best of my ability. How can I help you today?

> Chasch mir ä guets Rezept mit Bündnerfleisch chä?
Jo, natürli cha i dir es Rezept für es leckere Bündnerfleisch-Platte bereitstelle. Do isches:

**Zutaten:**
- 200g Bündnerfleisch (Bündner Rohschinken)
- 1 grossi Handvoll Rucola
- 100g Ziegenkäse oder Feta
- 1 Handvoll Walnusshälftli
- 1/2 Granatapfel (optional)
- 1 EL Honig
- 1 EL Balsamico-Essig
- 2 EL Olivenöl
- Salz und Pfeffer

**Zubereitung:**
1. Bündnerfleisch in feine Scheiben schneide.
2. Rucola wasche und trockne.
3. Ziegenkäse in Würfel oder Stücke bräche.
4. Walnusshälftli in einer Pfanne ohne Öl leicht röste, bis si duftig sind.
5. Granatapfel entkerne (falls verwendet).

**Anrichten:**
- Bündnerfleischscheiben auf em Teller ufläge.
- Rucola, Ziegenkäse und Walnusshälftli drüber verteil.
- Mit den Granatapfelkernen bestreue (falls verwendet).

**Dressing:**
- Honig, Balsamico-Essig und Olivenöl inere chline Schale vermische.
- Mit Salz und Pfeffer abschmecke.

**Abschliessig:**
- Dressing über d Platte träufle.
- Gern mit frischem Brot oder Croûtons serviere.

Gniesse dini leckeri Bündnerfleisch-Platte!
Iban Eguia Moraza 🇵🇸🇺🇦razican@hachyderm.io
2025-09-23

Anyone joining the #SwissAI #hackathon in #Lausanne this weekend? I’ll be there!!

2025-09-02

Big News! The completely #opensource #LLM #Apertus 🇨🇭 has been released today:

📰 swisscom.ch/en/about/news/2025

🤝 The model supports over 1000 languages [EDIT: an earlier version claimed over 1800] and respects opt-out consent of data owners.

▶ This is great for #publicAI and #transparentAI. If you want to test it for yourself, head over to: publicai.co/

🤗 And if you want to download weights, datasets & FULL TRAINING DETAILS, you can find them here:
huggingface.co/collections/swi

🔧 Tech report: huggingface.co/swiss-ai/Apertu

After #Teuken7b and #Olmo2, Apertus is the next big jump in capabilities and performance of #FOSS #LLMs, while also improving #epistemicresilience and #epistemicautonomy with its multilingual approach.

I believe that especially for sensitive areas like #education, #healthcare, or #academia, there is no alternative to fully open #AI models. Everybody should start building upon them and improving them.

#KIMündigkeit #SovereignAI #FOSS #ethicalAI #swissai #LernenmitKI

Apertus evaluation graphData Protection and Copyright Requests
For removal requests of personally identifiable information (PII) or of copyrighted content, please contact the respective dataset owners or us directly

llm-privacy-requests@swiss-ai.org
llm-copyright-requests@swiss-ai.org
2025-08-26

Dieser Kommentar auf @golem von Tim Elsner - "Hingewurschtelt in Germany" - trifft viele Nägel auf den Kopf: golem.de/news/ki-aus-deutschla

Auch wenn ich nicht an jeder einzelnen Stelle zustimme, finde ich die Analyse der Lage richtig. Zum Beispiel: Das #Teuken #LLM ist zwar #opensource und teuer gewesen, aber unbrauchbar (im Unterschied zu #olmo2 und vielleicht bald dem #swissai Modell der ETH).

Innovative Forschung ist schon allein aufgrund des lästigen Förderwesens der Wissenschaft in Deutschland mit seinen langen Schleifen im Bereich #KI nicht zu erwarten und Projekte, die Mittel erhalten, scheinen sich auf Prüfsiegel und Vermarktung zu konzentrieren, die man auch sehr viel günstiger hätte haben können.

Natürlich wird viel zu selten nach einem Endprodukt gefragt, das einen innovativen Mehrwert liefert. Auch die Gutachter:innen lesen Abschlussberichte mit einem Übermaß an Wohlwollen, oder

#KI #Schule #Bildung #LernenmitKI

Ein solches Projekt alleine, ohne Partner in der Wirtschaft, zu stemmen, ist für eine deutsche Universität nicht nur preislich schwierig, sondern allein durch Bürokratie oft einfach unmöglich: Bis ein genau spezifizierter Projektantrag mit entsprechenden Geldern bewilligt wird, ist er oftmals entweder inhaltlich veraltet oder ursprünglich beantragte Hardware nicht mehr der Gipfel der LeistungsfähigkeitÜberspitzt gesagt hat das Projekt Millionen Euro allein an Rechenpower verbrannt, ohne ein Produkt zu liefern, das innovativ oder kompetitiv irgendeinen Vorteil bietet. Im Gegensatz zur Konkurrenz ist die Kontextlänge dabei sogar auf nur etwa 4.000 Tokens beschränkt, also kein Vergleich etwa zu der Llama-Familie, die teilweise Millionen von Tokens verarbeiten kann. Komplexere Dokumente lassen sich also zum Beispiel nicht mit Teuken zusammenfassen.Dabei scheint besonders beim BildungsLLM viel Augenmerk auf das nicht-technische Marketing gelegt worden zu sein: Die Sicherheitsfeatures werden ebenso beworben wie die tieferen Erklärungen und das achtsame Verhalten der KI und ihre Kenntnisse der deutschen Sprache.

Alles zweifelsohne wichtig für den Umgang mit Schülerinnen, aber auch alles bereits zumindest initial Bestandteil von Llama 3.3. Zumindest für einige Beispiele, die DeutschlandGPT selbst liefert, schneidet die ursprüngliche Version von Llama 3.3 ziemlich ähnlich ab.Böswillig könnte man also vermuten: Vielleicht wurde hier einfach nur ein neues Etikett draufgeklebt, damit man sich an das Budget von Schulen und andere Bildungsträger besser dranhängen kann, statt diesen einfach das frei zugängliche Modell von Meta mit ähnlichen Qualitäten zu empfehlen.

Schüler bekommen so auch noch den Eindruck, dass hier echte Didaktik statt zweifelhafter KI-Logik hinter Aussagen steckt, weil ein TÜV-Logo daraufklebt und eine gezielte Entwicklung mit Extratraining für Schulen dahintersteckt - egal, ob das am Ende zweckdienlich ist. Ich kann mich natürlich auch irren und werde das hier gegebenenfalls richtigstellen, wenn die versprochenen Benchmarks in der angekündigten Veröffentlichung mich eines Besseren belehren.
olеg lаvrоvskyloleg@hachyderm.io
2025-05-06

Sprightly door opener to Gen/Agentic AI to solve all things in the city, highlighting the #SwissAI project from ETH Zürich #TRANSFORM25

Esther-Mirjam de Boer
CEO Brainboards AG, Board Member CH++ and Senior Advisor swissAI

Creating value with data - use cases and innovation potential

Esther-Mirjam De Boer’s talk will illustrate how data can be used effectively and securely to enable innovative solutions in the public sphere and basic services. Using the SaaS application swissAI - a spin-off of ETH Zurich - she will explain key terms such as "simulation twin" and "agentic AI" and how they can be used in a GDPR-compliant manner to optimise the planning and predictive operation of cities, real estate, and energy and mobility systems.
Musée Bolomuseebolo
2024-01-21

"Voyage dans l’âge d’or des superordinateurs Cray en Suisse" est en ligne!

Alors que les annonces se suivent autour du HPE Cray EX ALPS (CSCS, Lugano), cerveau des projets et , au Musée Bolo son ancêtre un Cray-1S, premier superordinateur de Suisse, s’émerveille du développement de l’aventure initiée il y a trente-huit ans!

Un grand Merci à @yrougy pour son reportage, intégré à l’article.

museebolo.ch/memoires_vives/un

EPFL AI CenterEPFL_AI_Center
2024-01-18

🇨🇭Swiss AI takes center stage in Davos! How can the authorities, academics and industry partners work together to build a Swiss AI? What are the challenges and how can each partner help solve them?

Thank you Ana Klimovic, Sabine Süsstrunk, Andreas Krause, Antoine Bosselut, Jan S Hesthaven and Marc Walder for sharing your expertise at the AI House Davos. Collaboration is key, and every exchange strengthens the foundation of this initiative!

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst