Europas Antwort auf US-KI-Dominanz: Mistrals neues Flaggschiff-Modell Medium 3.5 erreicht Spitzenniveau - mit Open Weights und Fokus auf Datensouveraenitaet
Was wirklich drin steht
Das franzoesische KI-Unternehmen Mistral AI hat am 29. April 2026 sein neues Flaggschiff-Modell Medium 3.5 veroeffentlicht. Es handelt sich um ein dichtes Modell mit 128 Milliarden Parametern und einem Kontextfenster von 256.000 Tokens, das Chat, logisches Schlussfolgern und Programmierung in einem einzigen Modell vereint. Auf dem SWE-Bench-Verified-Benchmark fuer Software-Engineering erreicht es 77,6 Prozent - knapp vor Anthropics Claude Sonnet 4.5 (77,2 Prozent), aber hinter Sonnet 4.6 (79,6 Prozent). Das Modell ist als Open Weights unter einer modifizierten MIT-Lizenz auf Hugging Face verfuegbar und kann mit nur vier GPUs selbst gehostet werden. Die API-Preise liegen bei 1,50 US-Dollar pro Million Eingabe-Tokens und 7,50 US-Dollar pro Million Ausgabe-Tokens - etwa die Haelfte vergleichbarer US-Modelle. Gleichzeitig fuehrte Mistral den Work Mode fuer seinen KI-Assistenten Le Chat ein, bei dem Verbindungen zu Dokumenten, E-Mails und Kalendern standardmaessig aktiv sind. Ueber die Vibe CLI koennen Entwickler Cloud-basierte Coding-Agenten starten, die asynchron komplexe Programmieraufgaben erledigen. Mistral investiert 830 Millionen US-Dollar in ein Rechenzentrum bei Paris, das im zweiten Quartal 2026 in Betrieb gehen soll.
Unsere Einordnung
Dies ist eine ueberwiegend positive Nachricht fuer alle, die sich Sorgen ueber die Abhaengigkeit von US-amerikanischen KI-Anbietern machen. Mit Medium 3.5 zeigt ein europaeisches Unternehmen, dass es technisch mit den Spitzenmodellen von OpenAI und Anthropic mithalten kann. Die Open-Weights-Veroeffentlichung ist besonders bedeutsam: Unternehmen und Behoerden koennen das Modell auf eigenen Servern betreiben, ohne Daten an externe Anbieter zu senden. Das ist ein konkreter Schritt in Richtung digitaler Souveraenitaet, den die BMWE-Expertenkommission gerade erst gefordert hat. Die 830-Millionen-Dollar-Investition in europaeische Rechenzentrumsinfrastruktur untermauert das Engagement. Nuechtern betrachtet gibt es auch Einschraenkungen: Mistral ist zwar europaeisch, aber nicht unabhaengig von US-Investoren - Microsoft und Nvidia gehoeren zu den Geldgebern. Die modifizierte MIT-Lizenz erlaubt zwar breite Nutzung, ist aber keine reine Open-Source-Lizenz. Und auf dem neuesten SWE-Bench liegt das Modell noch hinter Sonnet 4.6. Dennoch: Wettbewerb ist gut fuer die Nutzer, und ein starker europaeischer Anbieter ist gut fuer den Datenschutz.
Relevanz für Deutschland
Fuer Deutschland direkt relevant als europaeische Alternative zu US-KI-Modellen. Deutsche Unternehmen, die aus DSGVO-Gruenden zoegern, US-Cloud-Dienste fuer KI zu nutzen, haben mit Medium 3.5 eine leistungsfaehige Option, die auf eigener Infrastruktur betrieben werden kann. Die Self-Hosting-Faehigkeit mit nur vier GPUs macht das Modell auch fuer mittelstaendische Unternehmen und oeffentliche Einrichtungen interessant. Mistrals Positionierung als europaeische Alternative adressiert genau die Abhaengigkeitssorgen, die die BMWE-Expertenkommission letzte Woche formuliert hat. Fuer den deutschen Arbeitsmarkt ist der Work Mode von Le Chat relevant: Er zeigt, wie KI-Agenten zunehmend in den Bueroalltag integriert werden - mit allen Chancen und Risiken, die das fuer Arbeitsplaetze und Produktivitaet bedeutet. Das Rechenzentrum bei Paris koennte auch fuer deutsche Unternehmen relevant werden, die europaeische Datenresidenz benoetigen.
Faktencheck
Die technischen Spezifikationen - 128 Milliarden Parameter, 256.000-Token-Kontextfenster, SWE-Bench-Verified-Score von 77,6 Prozent - stammen aus Mistrals offizieller Model Card und dem Hugging-Face-Repository. Die Vergleichswerte mit Claude Sonnet 4.5 (77,2%) und Sonnet 4.6 (79,6%) werden von mehreren unabhaengigen Quellen bestaetigt. Die API-Preise (1,50/7,50 USD pro Million Tokens) sind auf Mistrals Plattform dokumentiert. Die Self-Hosting-Faehigkeit mit vier GPUs und die modifizierte MIT-Lizenz stammen aus der offiziellen Dokumentation. Die 830-Millionen-Dollar-Investition in ein Pariser Rechenzentrum wurde von Heise berichtet. Einschraenkung: Unabhaengige Benchmark-Verifikationen durch Dritte standen zum Redaktionsschluss noch aus - die Werte stammen primaer aus Mistrals eigenen Tests.
Quelle
- • Mistral AI Blog 29.04.2026 (mistral.ai/news/vibe-remote-agents-mistral-medium-3-5)
- • Heise 30.04.2026 (heise.de/en/news/Mistral-AI-New-Medium-3-5-Language-Model-and-Cloud-Coding-Agents-11278054.html)
- • Mistral Model Card (docs.mistral.ai/models/model-cards/mistral-medium-3-5-26-04)
- • Hugging Face (huggingface.co/mistralai/Mistral-Medium-3.5-128B)
- • The Decoder (the-decoder.com/mistrals-new-flagship-medium-3-5-folds-chat-reasoning-and-code-into-one-model/)