SOOFI? Das neue Frontier-LLM auf Augenhöhe mit Mistral Large 3 – Made in Germany!

TL;DR? Warum Sie trotzdem weiterlesen sollten.

Frontier-LLM aus Deutschland???

Es gibt einen Reflex, der zuverlässig einsetzt, sobald jemand das Wort „europäisches KI-Modell“ in den Mund nimmt. Die Augen rollen leicht, der Mundwinkel zieht nach oben, und irgendwo im Hinterkopf formt sich ein: „Deutsches LLM? Lächerlich“

Er basiert auf den Erfahrungen mit deutschen LLMs: Teuken-7B war kein GPT-4-Konkurrent. DeutschlandGPT klingt nach Marketing-Abteilung, nicht nach Technologierevolution. Und die Diskrepanz zwischen den Milliarden, die OpenAI und Co. bewegen, und dem, was Europa bislang auf den Tisch gelegt hat. Das ist doch nicht vergleichbar. Und genau so ist es. Nicht weil die Innovationskraft nicht da wäre, sondern weil die von den USA vorgegebenen, die Leistungsfähigkeit verdrehenden KPIs für den Vergleich herangenommen werden. Und dennoch, ja, deutsche Modelle waren bislang Versuchsobjekte und Spezialmodelle und somit nicht auf Augenhöhe mit Frontier-Modellen.

Das ändert sich aber gerade: SOOFI kommt und bringt Europa mit einem zweiten Modell neben Mistral in die Weltliga. Made in Germany.


Was ist SOOFI?

SOOFI steht für Sovereign Open Source Foundation Models. Hinter dem sperrigen Namen verbirgt sich das bislang ambitionierteste deutsche Vorhaben im Bereich großer Sprachmodelle: ein offenes Foundation-Modell mit rund 100 Milliarden Parametern, entwickelt in Deutschland, trainiert auf europäischer Infrastruktur, ausgerichtet auf die Anforderungen des EU AI Acts.

Das Konsortium dahinter liest sich wie ein Who’s who der deutschen KI-Forschung: Fraunhofer IAIS und IIS, das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), das L3S Research Center der Leibniz Universität Hannover, die Universitäten Würzburg und Darmstadt, die BHT Berlin sowie die Start-ups Ellamind und Merantix Momentum. Koordiniert wird das Ganze vom KI-Bundesverband, finanziert mit rund 20 Millionen Euro durch das Bundeswirtschaftsministerium im Rahmen der Initiative 8ra – bis Juli 2026.

Trainiert wird SOOFI in der Industrial AI Cloud der Deutschen Telekom, intern auch „KI-Fabrik“ genannt: eine dedizierte Recheninfrastruktur mit über 10.000 GPUs und einer Leistung in der ExaFLOPS-Klasse, die Anfang Februar 2026 offiziell in Betrieb gegangen ist. SOOFI ist eines der ersten Großprojekte, das dort trainiert wird. (Blogbeitrag dazu: Was macht Deutschland eigentlich so in einem KI-Rechenzentrum?)

Warum weiß kaum jemand davon? Weil das Projekt arbeitet, statt zu kommunizieren. Kein Pressefeuerwerk, keine Produktlaunch-Inszenierung. Das ist in der KI-Welt ungewöhnlich.


SOOFI und Mistral: zwei europäische Ansätze, ein Ziel

Wer die europäische KI-Landschaft auch nur oberflächlich kennt, denkt bei „europäisches LLM“ sofort an Mistral. Zu Recht: Das französische Unternehmen ist mit seinen Modellfamilien – von Mistral 7B bis Mistral Large 3 – der bislang einzige europäische Player, der in der globalen Frontier-Liga mitspielen kann. Mistral Large 3 arbeitet mit einer sogenannten MoE-Architektur (Mixture of Experts) mit 675 Milliarden Gesamtparametern, davon rund 41 Milliarden aktiv pro Anfrage. Das Unternehmen hat eine Milliardenbewertung, ein eigenes API-Geschäft und wächst.

SOOFI ist etwas anderes – und das ist keine Schwäche, sondern ein bewusster Ansatz. Mistral ist ein privatwirtschaftliches Unternehmen mit globalem Wachstumsziel und eigenem Cloud-Plattform-Geschäft. SOOFI ist ein öffentlich gefördertes Verbundprojekt, das kein Plattformanbieter werden will, sondern eine offene Grundlage schaffen: ein Foundation-Modell, das Unternehmen, Forschungseinrichtungen und Behörden als Basis für eigene Anwendungen nutzen können – ohne proprietäre Bindung, ohne API-Abhängigkeit, im europäischen Rechtsraum.

Von der anvisierten Modellgröße her – rund 100 Milliarden Parameter als klassisches Dense-Modell plus spezialisiertes Reasoning-Modell – spielt SOOFI in der gleichen Fahrzeugklasse wie Mistral Large 3 oder DeepSeek-V3. Wer Modelle nach Hubraum bewertet: Die Zylinderzahl stimmt, der Hubraum stimmt, und die Fabrik, in der der Motor gebaut wird, ist dieselbe Liga. Deutschland baut hier kein Kleinstwagen-Projekt – sondern ein vollwertiges Frontier-Modell mit europäischem Pass.

Europa hätte damit – wenn SOOFI wie geplant liefert – nicht einen europäischen Champion, sondern zwei: einen kommerziellen und einen öffentlichen. Das ist kein Entweder-oder, sondern Arbeitsteilung.


Teuken, DeutschlandGPT & Co.: Fehlschläge oder Fundament?

Um SOOFI richtig einzuordnen, braucht es einen kurzen Blick zurück – und einen ehrlichen.

Teuken-7B, das Ergebnis des OpenGPT-X-Projekts, war ein multilinguales Sprachmodell mit 7 Milliarden Parametern, trainiert von Grund auf für alle 24 EU-Amtssprachen. Es war kein Allzweck-Chatbot und hat im direkten ChatGPT-Vergleich erwartungsgemäß schlechter abgeschnitten – weniger Wissenstiefe, schwächeres Coding, kein „Wow-Effekt“. Das war auch nie das Ziel. Teuken war ein Forschungs-Meilenstein: neue Tokenizer-Technologie, effizientes Training über Sprachgrenzen hinweg, aufgebaute Datenpipelines für europäische Sprachen.

DeutschlandGPT positionierte sich über Governance: DSGVO-Konformität, europäische Cloud-Infrastruktur, Einsatz in Schulen und Verwaltungen. Kein Modell, das GPT-5 vom Thron stößt – aber ein funktionierender Beweis, dass rechtskonforme KI-Bereitstellung in Deutschland möglich ist.

SOOFI beschreibt Teuken-7B in seinen eigenen Projektunterlagen als Vorgänger, dessen Erfahrungen direkt einfließen: Datenpipelines, Tokenizer-Know-how, Multilingual-Expertise. T-Systems formuliert es direkt: SOOFI „supersedes Teuken-7B“ – löst Teuken-7B ab. Wer Teuken als Fehlschlag bezeichnet, hat nicht verstanden, wie Spitzenforschung funktioniert. Kein Rennstall gewinnt die Meisterschaft mit dem ersten Prototyp – aber ohne ihn auch nicht.


Die drei Standardeinwände

Drei Argumente tauchen in dieser Diskussion zuverlässig auf. Sie verdienen eine direkte Antwort.

„20 Millionen Euro sind ein Witz.“

Nein. Die 20 Millionen Euro sind nur der öffentlich ausgewiesene Förderanteil des Bundeswirtschaftsministeriums für das Forschungsprojekt selbst. Die Telekom-KI-Fabrik – mehr als 10.000 GPUs, ExaFLOPS-Klasse, eigens für diesen Zweck aufgebaut – ist eine separate Investition und taucht in dieser Zahl nicht auf. Die Forschungspartner bringen zusätzlich Personal, Infrastruktur und Vorarbeiten ein, die ebenfalls nicht im Förderbescheid stehen. Der tatsächliche Gesamtinvest bewegt sich in einer anderen Größenordnung – er ist nur nicht konsolidiert ausgewiesen. Wir sprechen hier also von dreistelligen Millioneninvestitionen.

Zum Vergleich mit Microsofts 13-Milliarden-Investment in OpenAI immer noch lächerlich? Das übersieht, wohin diese ginagtischen Summen gehen. Nicht alleine in das Modell, auch das verschlingt „nur“ dreistellige Millionenbeträge, der Mammutanteil der US-Investments kauft Börsenwert, Plattform-Lock-in und proprietäre Marktführerschaft.

GPT-5 kostete ca. 500 Millionen $ für Training und Infrastruktur.

Rechnet man noch die Hardwareinvestition des Telekom-Rechenzentrums hinein,auf der SOOFI trainiert wird, liegen wir nicht weit auseinander.

„Alle guten KI-Entwickler sitzen bei OpenAI & Co. Europa kann es nicht, die wenigen Entwickler sind in die USA abgewandert“

Diese These ignoriert, was in Deutschland und Europa tatsächlich existiert. DFKI, Fraunhofer, L3S und die beteiligten Universitäten betreiben seit Jahren ernsthafte NLP-Forschung – inklusive eigener Benchmarks wie SuperGLEBer für die Evaluation deutschsprachiger Modelle. Teuken-7B war kein Studentenprojekt, sondern das Ergebnis komplexer Engineering-Arbeit an Datenpipelines und Trainingsarchitekturen.

Brain Drain existiert – aber er ist keine Einbahnstraße. Selbst OpenAI und DeepMind verlieren regelmäßig Talente an neue Labs wie Anthropic. Was Europa fehlt, ist nicht Kompetenz. Es ist Skalierung – und genau die wird mit SOOFI und der Telekom-KI-Fabrik jetzt aufgebaut. Die Leute sind da. Die Infrastruktur ist da. Das Projekt läuft.

„Gegen Qwen und DeepSeek hat SOOFI keine Chance.“

Alibabas Qwen-Familie kommt auf über 700 Millionen kumulative Downloads – als globales Entwickler-Ökosystem mit Dutzenden Modellvarianten, das auf maximale weltweite Adoption ausgelegt ist. DeepSeek-V3 überzeugt mit starker Performance bei vergleichsweise effizienten Trainingskosten. Download-Rankings auf Hugging Face sind ein Popularitäts-, kein Souveränitätsindikator.

SOOFI stellt sich nicht in diesen Wettbewerb (und auch noch nicht dort verfügbar). Die relevante Frage ist eine andere: Können europäische Unternehmen, Behörden und kritische Infrastrukturen KI nutzen, die im EU-Rechtsraum trainiert wurde, EU-AI-Act-konform ist und nicht von chinesischer oder amerikanischer Basisinfrastruktur abhängt? In dieser Nische hat SOOFI das Potenzial, zur ersten Wahl zu werden – unabhängig davon, wo es in globalen Download-Charts landet.


Was SOOFI ist – und was nicht

An dieser Stelle ist Klarheit wichtiger als Euphorie.

Stand Februar 2026 gibt es kein öffentlich verfügbares SOOFI-Modell. Keine Benchmarks, keine Checkpoints, keine Beta-Zugänge. Das Projekt befindet sich im Übergang von der Setup-Phase in die eigentliche Trainings- und Evaluationsphase auf der neuen KI-Fabrik. Mit ersten öffentlich nutzbaren Versionen ist realistisch in der zweiten Jahreshälfte 2026 zu rechnen.

Ob SOOFI am Ende auf Augenhöhe mit GPT-5, Claude oder Mistral Large steht, werden Benchmarks zeigen. Was heute gesagt werden kann: SOOFI ist kein Papier-Tiger. Es ist ein voll finanziertes Verbundprojekt mit laufendem Training auf dedizierter Infrastruktur, getragen von Institutionen mit nachgewiesener Forschungskompetenz.

Der Anspruch ist diesmal explizit ein Foundation-Modell in der großen Parameter-Klasse – nicht ein weiteres fokussiertes 7-Milliarden-Parameter-Forschungsprojekt. Das ist ein Unterschied. Und ein bedeutender.


Was das für Unternehmen bedeutet – und warum Vendor-Lock-in kein theoretisches Problem ist

Hier liegt der strategische Kern, der in der technischen Debatte um Parameter und Benchmarks oft untergeht.

Wer heute KI-Infrastruktur aufbaut, baut sie auf Basis von Anbietern, die Konditionen, Preise und Verfügbarkeit selbst bestimmen. Was kein vernünftiger Einkäufer in seiner Lieferkette akzeptieren würde – vollständige Abhängigkeit von einem einzigen Anbieter ohne ernsthafte Alternativen – ist im KI-Bereich gerade dabei, zum Standard zu werden. Der Fachbegriff dafür ist Vendor-Lock-in. Und er ist kein theoretisches Problem: Wer heute tief in die Infrastruktur eines einzelnen Anbieters integriert, zahlt morgen den Preis – in Form von Preiserhöhungen, geänderten Nutzungsbedingungen oder eingeschränkter Datenkontrolle.

Ein offenes europäisches Foundation-Modell wie SOOFI wirkt dem strukturell entgegen. Es schafft drei Dinge gleichzeitig: DSGVO-konforme und EU-AI-Act-gerechte Nutzung ohne juristische Kompromisse. Unabhängigkeit von Anbietern, die Preise und Bedingungen einseitig festlegen. Und eine offene, einsehbare Basis, die Unternehmen und Forschungseinrichtungen anpassen, erweitern und kontrollieren können – keine Black Box, sondern transparente Infrastruktur.

Das ist kein Luxusargument für Großkonzerne. Es ist Risikomanagement für alle, die KI langfristig als strategisches Werkzeug einsetzen wollen.

Was Vendor-Lock-in konkret für Einkaufs- und IT-Entscheidungen bedeutet – dazu folgt in dieser Reihe ein eigener Beitrag.


Fazit:

Der Reflex, Europa, Deutschland kann keine KI, ist nicht richtig.

Was ihn widerlegt, ist ein nüchterner Blick auf das, was tatsächlich passiert: Eine Lernkurve, die mit Teuken und DeutschlandGPT begonnen hat, mündet jetzt in ein Projekt, das erstmals mit dem expliziten Anspruch antritt, ein leistungsstarkes europäisches Foundation-Modell zu entwickeln – auf eigener Infrastruktur, mit eigenem Know-how, nach europäischen Regeln. Neben Mistral, nicht statt Mistral. Europa hat jetzt zwei Pferde im Rennen.

Ob SOOFI das hält, was die Zahlen ankündigen, wissen wir im Laufe von 2026. Dass ein Hochleistungs-LLM gebaut wird ist jedenfalls Fakt.

Dieser Artikel ist Teil der Reihe „Deutschland kann KI“. Weitere Beiträge – zu Investitionsfragen, zum Thema Talente und Brain Drain sowie zum Vendor-Lock-in in der KI-Infrastruktur – folgen in Kürze.