29.01.2025

12 Min. Lesezeit

Ende November 2024 wurde mit Teuken-7B das erste europäische Open-Source-KI-Sprachmodell veröffentlicht – ein Gemeinschaftsprojekt unter Federführung der Fraunhofer-Institute für Intelligente Analyse- und Informationssysteme (IAIS) und für integrierte Schaltungen (IIS). Das Modell umfasst sieben Milliarden Parameter und wurde auf allen 24 EU-Amtssprachen trainiert. Während US-Anbieter mit Milliarden-Dollar-Investitionen dominieren, zeigt Teuken, dass auch mit 14 Millionen Euro aus dem Bundesministerium für Wirtschaft und Klimaschutz (BMWK) ein wettbewerbsfähiges, sprachlich präzises und kosteneffizientes Modell entstehen kann.

Das Wichtigste in Kürze

  • Teuken-7B ist das erste europäische Open-Source-KI-Sprachmodell mit sieben Milliarden Parametern, veröffentlicht Ende November 2024.
  • Es wurde auf allen 24 EU-Amtssprachen trainiert, wobei Englisch nur 41,7 Prozent der Trainingsdaten ausmacht.
  • Die Trainingskosten für Deutsch stiegen im Vergleich zu Englisch um nur 20 Prozent – bei Llama 3 und GPT-4 waren es über 55 Prozent.
  • Das Projekt wurde vom BMWK mit 14 Millionen Euro gefördert und ist Teil des Gemeinschaftsprojekts OpenGPT-X.
  • Die Deutsche Telekom startet am 12. Dezember 2024 das erste kommerzielle Angebot des Modells.
20 Prozent
Kostenanstieg für Deutsch im Vergleich zu Englisch beim Training von Teuken-7B
80 Prozent
Kosteneinsparung gegenüber anderen Anbietern bei der Verarbeitung agglutinierender Sprachen wie Deutsch, Finnisch oder Ungarisch

„Je weniger Token, desto (energie-)effizienter und schneller generiert ein Sprachmodell die Antwort.“

Token für 24 EU-Amtssprachen

Die Sprachverteilung der Trainingsdaten bei Teuken-7B ist kein Zufall, sondern eine strategische Entscheidung für die Vielfalt der EU. Englisch macht 41,7 Prozent der Trainingsdaten aus, Französisch 9,1 Prozent, Deutsch 8,7 Prozent und Spanisch 8,0 Prozent. Diese Verteilung stellt sicher, dass auch Sprachen mit komplexen grammatikalischen Strukturen – wie Finnisch und Ungarisch – ausreichend repräsentiert sind.

Im Gegensatz zu globalen Modellen, die stark auf englischen Korpora basieren, zielt Teuken darauf ab, die Qualität der Ergebnisse in nicht-englischen Sprachen signifikant zu verbessern. Der Name „Teuken“ ist eine bewusste Anspielung auf „Token“, die kleinsten sinntragenden Einheiten in KI-Modellen. Die Entwicklung eines eigenen multilingualen Tokenizers war dabei entscheidend für den Erfolg.

Dieser zerlegt Wörter in sinnvolle Bestandteile, anstatt sie willkürlich zu splitten. Bei traditionellen Ansätzen wie Llama 3 oder Mistral zerfallen komplexe Wörter in viele Einzelteile, was die semantische Integrität beeinträchtigt. Der neue Tokenizer von Teuken hält diese Strukturen besser zusammen – ein Vorteil, der sich direkt auf die Antwortqualität auswirkt.

Besonders in Anwendungen wie Kundenservice-Chatbots oder juristischer Dokumentenanalyse ist Präzision entscheidend. Die Wahl des Tokenizers hat auch ökonomische Auswirkungen auf den Betrieb. Weniger Token bedeuten geringeren Rechenaufwand und damit niedrigere Betriebskosten für Unternehmen.

Für Unternehmen, die große Textmengen verarbeiten, bedeutet dies eine signifikante Effizienzsteigerung. Die Kombination aus sprachlicher Genauigkeit und Kosteneffizienz macht Teuken-7B zu einer attraktiven Option für europäische Unternehmen. Die Plattform Hugging Face ermöglicht Entwicklern und Wissenschaftlern den kostenlosen Zugriff.

Dies fördert die Verbreitung von Technologien, die nicht proprietären Lock-in-Effekten unterliegen. Die Verfügbarkeit als Open Source schafft Transparenz und Vertrauen in die Algorithmen. Entwickler können die Architektur prüfen und anpassen, ohne auf geschlossene Blackbox-Systeme angewiesen zu sein. Die Fraunhofer-IAIS hat die Trainingsdaten dokumentiert, um Reproduzierbarkeit zu gewährleisten – ein seltener Standard in der KI-Entwicklung.

Training am Supercomputer in Jülich

Das Training von Teuken erfolgte auf dem Supercomputer JUWELS am Forschungszentrum Jülich. Dieser Rechner, einer der leistungsfähigsten in Europa, bot die nötige Rechenkapazität, um ein Modell mit sieben Milliarden Parametern auf 500 Milliarden Token zu trainieren. Der Einsatz nationaler Infrastruktur unterstreicht die technologische Souveränität Deutschlands.

Im Gegensatz zu Cloud-basierten Trainings bei US-Anbietern bleibt die Kontrolle über die Daten und Prozesse im europäischen Raum. Die Kosteneffizienz des Trainings ist bemerkenswert und hebt sich deutlich vom Wettbewerb ab. Für Deutsch stieg der Aufwand um nur 20 Prozent im Vergleich zu Englisch.

Bei Llama 3 und GPT-4 lag der Aufpreis bei über 55 Prozent, bei Mistral sogar bei über 100 Prozent. Im Schnitt schlagen andere Sprachen bei Teuken mit 37 Prozent Aufpreis zu Buche – bei Llama 3 sind es 87 Prozent. Diese Differenz ist kein technisches Detail, sondern ein entscheidender Faktor für die Budgetplanung von IT-Abteilungen.

Unternehmen, die bereits hohe API-Kosten an US-Anbieter zahlen, können durch lokale Nutzung erhebliche Einsparungen erzielen. Das Konsortium umfasst neben den Fraunhofer-Instituten die TU Dresden, das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) und das Forschungszentrum Jülich. Diese Zusammenarbeit zwischen Wissenschaft und Industrie zeigt, wie öffentliche Förderung und technische Expertise ein funktionierendes Ökosystem schaffen können.

Die Verfügbarkeit des Modells seit dem 26. November 2024 unter Open-Source-Lizenz ermöglicht es Entwicklern, es in RAG-Anwendungen zu integrieren. Die Einstiegshürde für Unternehmen wird dadurch erheblich gesenkt. Spezialisierte Chatbots können nun ohne exorbitante Lizenzgebühren entwickelt werden. Die DFKI hat bereits drei Anwendungsfälle für die öffentliche Verwaltung veröffentlicht – alle basierend auf Teuken-7B.

Stärkung der digitalen Souveränität

„Innovationen wie diese stärken die digitale Souveränität, die Wettbewerbsfähigkeit und auch die Resilienz Deutschlands und Europas“, erklärte Dr. Franziska Brantner. Sie ist Parlamentarische Staatssekretärin im Bundesministerium für Wirtschaft und Klimaschutz. Die Förderung des Projekts mit 14 Millionen Euro ist Teil einer breiteren Strategie, die Abhängigkeit von US-Anbietern zu reduzieren.

Während in den USA ein 500 Milliarden Dollar schweres Gemeinschaftsprojekt für KI-Rechenzentren geplant ist, setzt Europa auf gezielte, effiziente Investitionen. Die Deutsche Telekom hat am 12. Dezember 2024 bekanntgegeben, das erste kommerzielle Angebot von Teuken-7B zu starten. Damit wird das Modell „Made in Germany“ auch für Unternehmen verfügbar, die keine eigene KI-Infrastruktur betreiben wollen.

Die Möglichkeit, das Modell lokal oder bei einem vertrauenswürdigen Cloudanbieter zu hosten, gibt CIOs die Kontrolle über ihre Datenflüsse zurück. Für Branchen mit hohen Compliance-Anforderungen – wie Finanzen, Gesundheitswesen oder öffentliche Verwaltung – ist dies ein entscheidender Vorteil. Datenschutzrichtlinien lassen sich so einfacher einhalten als bei externen US-Cloud-Diensten.

Die Open-Source-Lizenzierung fördert zudem Innovation durch Community-Beiträge. Im Gegensatz zu geschlossenen Systemen können Entwickler das Modell anpassen, verbessern und für spezifische Anwendungsfälle optimieren. Dies beschleunigt die Weiterentwicklung und schafft ein Ökosystem, das auf lokalen Anforderungen basiert.

Die Verfügbarkeit auf Hugging Face ermöglicht es Entwicklern und Wissenschaftlern, das Angebot des Modells schnell zu testen. Langfristig könnte dies dazu führen, dass europäische Modelle in bestimmten Domänen sogar leistungsfähiger sind als globale Konkurrenten. Die Unabhängigkeit von externen APIs sichert die langfristige Planbarkeit von IT-Projekten. Die OpenGPT-X-Initiative hat bereits 26 europäische Partner aus sieben Ländern eingebunden – ein Netzwerk, das über nationale Grenzen hinweg koordiniert wird.

Effizienz durch intelligente Architektur

Die Effizienz von Teuken-7B resultiert nicht aus der Größe des Modells, sondern aus der Intelligenz seiner Architektur. Während US-Anbieter auf Skalierung setzen, hat das Fraunhofer-Konsortium gezielt an der Optimierung der Tokenisierung gearbeitet. Die Wahl des Tokenizers beeinflusst direkt die Anzahl der benötigten Token – und damit den Energieverbrauch und die Antwortgeschwindigkeit.

Bei agglutinierenden Sprachen wie Deutsch, Finnisch, Ungarisch, Türkisch, Japanisch und Koreanisch ist dieser Effekt besonders ausgeprägt. Ein Beispiel: Die Phrase „in meinen Häusern“ kann in einigen Sprachen als ein einziges Wort konstruiert werden. Traditionelle Tokenizer zerlegen solche Konstrukte in viele Einzelteile, was die semantische Bedeutung verwässert.

Der neue Ansatz von Teuken behält diese Zusammenhänge besser bei, was die Qualität der Ergebnisse verbessert. Gleichzeitig reduziert er den Rechenaufwand – eine Effizienzsteigerung, die sich direkt auf die Betriebskosten niederschlägt. Unternehmen, die große Mengen an Texten verarbeiten, können so bis zu 80 Prozent an Ressourcenkosten einsparen.

Diese Architektur-Entscheidung ist kein technisches Experiment, sondern ein wirtschaftlicher Hebel. Für IT-Entscheider bedeutet dies, dass europäische Modelle nicht nur aus politischen Gründen interessant sind, sondern auch aus Kostensicht wettbewerbsfähig sein können. Die Kombination aus öffentlicher Förderung, wissenschaftlicher Expertise und kommerzieller Umsetzung durch die Telekom zeigt, wie ein funktionierendes Ökosystem aussehen kann.

CIOs sollten dieses Modell daher nicht als Nischenprojekt abtun, sondern als strategische Option für die eigene KI-Strategie 2025 bis 2027 prüfen. Die Investition in souveräne Technologie amortisiert sich durch geringere Betriebskosten und höhere Datensicherheit. Es handelt sich um eine Option für Entwicklern und Wissenschaftlern sowie für den industriellen Einsatz. Die Fraunhofer-IIS hat die Architekturdetails in einem technischen Whitepaper veröffentlicht – inklusive Benchmark-Daten gegenüber Llama 3 und Mistral.

Häufige Fragen

Was bedeutet Teuken-7B genau?

Es handelt sich um ein europäisches Open-Source-KI-Sprachmodell mit sieben Milliarden Parametern, das auf allen 24 EU-Amtssprachen trainiert wurde.

Wer hat das Modell entwickelt?

Ein Konsortium unter Federführung der Fraunhofer-Institute für Intelligente Analyse- und Informationssysteme (IAIS) und für integrierte Schaltungen (IIS).

Diesen Beitrag teilen:

Weitere Beiträge

11.04.2026

Chief AI Officer 2026: Echte Rolle oder der nächste C-Level-Titel?

Tobias Massow

⏱ 9 Min. Lesezeit Der Chief AI Officer ist die am häufigsten angekündigte und am seltensten ...

Zum Beitrag
10.04.2026

Cloud Repatriation 2026 ist eine statistische Illusion – wer darauf hereinfällt, verpasst den wirklichen Architektur-Shift

Benedikt Langer

7 Min. Lesezeit "86 Prozent der CIOs planen Cloud Repatriation" lautet die Überschrift, die sich seit ...

Zum Beitrag
09.04.2026

Vendor-Consolidation 2026: Warum 68 Prozent der IT-Organisationen konsolidieren wollen – und warum die Roadmap 18 Monate länger dauert als geplant

Benedikt Langer

7 Min. Lesezeit 68 Prozent der IT-Organisationen planen 2026 eine Vendor-Consolidation. Die Mehrheit ...

Zum Beitrag
08.04.2026

KI-Governance 2026: Nur 14 Prozent haben geklärt, wer die Verantwortung trägt

Tobias Massow

7 Min. Lesezeit 87 Prozent der Unternehmen erhöhen ihre KI-Budgets. Aber nur 14 Prozent haben auf Führungsebene ...

Zum Beitrag
07.04.2026

Prozent Pay Gap: Gehaltstransparenz ab Juni

Benedikt Langer

8 Min. Lesezeit Ab Juni 2026 müssen Gehaltsspannen in Stellenanzeigen stehen. Die Frage nach dem aktuellen ...

Zum Beitrag
06.04.2026

Cyber-Versicherung 2026: Prämien verdoppelt, Deckung halbiert – die Rechnung die kein CFO sehen will

Benedikt Langer

6 Min. Lesezeit 15,3 Mrd. US-Dollar Prämienvolumen, 15 bis 20 Prozent Preisanstieg für 2026 und neue ...

Zum Beitrag
Ein Magazin der Evernine Media GmbH