Chief AI Officer 2026: Echte Rolle oder der nächste C-Level-Titel?
Tobias Massow
⏱ 9 Min. Lesezeit Der Chief AI Officer ist die am häufigsten angekündigte und am seltensten ...
12 Min. Lesezeit
Ende November 2024 wurde mit Teuken-7B das erste europäische Open-Source-KI-Sprachmodell veröffentlicht – ein Gemeinschaftsprojekt unter Federführung der Fraunhofer-Institute für Intelligente Analyse- und Informationssysteme (IAIS) und für integrierte Schaltungen (IIS). Das Modell umfasst sieben Milliarden Parameter und wurde auf allen 24 EU-Amtssprachen trainiert. Während US-Anbieter mit Milliarden-Dollar-Investitionen dominieren, zeigt Teuken, dass auch mit 14 Millionen Euro aus dem Bundesministerium für Wirtschaft und Klimaschutz (BMWK) ein wettbewerbsfähiges, sprachlich präzises und kosteneffizientes Modell entstehen kann.
„Je weniger Token, desto (energie-)effizienter und schneller generiert ein Sprachmodell die Antwort.“
Die Sprachverteilung der Trainingsdaten bei Teuken-7B ist kein Zufall, sondern eine strategische Entscheidung für die Vielfalt der EU. Englisch macht 41,7 Prozent der Trainingsdaten aus, Französisch 9,1 Prozent, Deutsch 8,7 Prozent und Spanisch 8,0 Prozent. Diese Verteilung stellt sicher, dass auch Sprachen mit komplexen grammatikalischen Strukturen – wie Finnisch und Ungarisch – ausreichend repräsentiert sind.
Im Gegensatz zu globalen Modellen, die stark auf englischen Korpora basieren, zielt Teuken darauf ab, die Qualität der Ergebnisse in nicht-englischen Sprachen signifikant zu verbessern. Der Name „Teuken“ ist eine bewusste Anspielung auf „Token“, die kleinsten sinntragenden Einheiten in KI-Modellen. Die Entwicklung eines eigenen multilingualen Tokenizers war dabei entscheidend für den Erfolg.
Dieser zerlegt Wörter in sinnvolle Bestandteile, anstatt sie willkürlich zu splitten. Bei traditionellen Ansätzen wie Llama 3 oder Mistral zerfallen komplexe Wörter in viele Einzelteile, was die semantische Integrität beeinträchtigt. Der neue Tokenizer von Teuken hält diese Strukturen besser zusammen – ein Vorteil, der sich direkt auf die Antwortqualität auswirkt.
Besonders in Anwendungen wie Kundenservice-Chatbots oder juristischer Dokumentenanalyse ist Präzision entscheidend. Die Wahl des Tokenizers hat auch ökonomische Auswirkungen auf den Betrieb. Weniger Token bedeuten geringeren Rechenaufwand und damit niedrigere Betriebskosten für Unternehmen.
Für Unternehmen, die große Textmengen verarbeiten, bedeutet dies eine signifikante Effizienzsteigerung. Die Kombination aus sprachlicher Genauigkeit und Kosteneffizienz macht Teuken-7B zu einer attraktiven Option für europäische Unternehmen. Die Plattform Hugging Face ermöglicht Entwicklern und Wissenschaftlern den kostenlosen Zugriff.
Dies fördert die Verbreitung von Technologien, die nicht proprietären Lock-in-Effekten unterliegen. Die Verfügbarkeit als Open Source schafft Transparenz und Vertrauen in die Algorithmen. Entwickler können die Architektur prüfen und anpassen, ohne auf geschlossene Blackbox-Systeme angewiesen zu sein. Die Fraunhofer-IAIS hat die Trainingsdaten dokumentiert, um Reproduzierbarkeit zu gewährleisten – ein seltener Standard in der KI-Entwicklung.
Das Training von Teuken erfolgte auf dem Supercomputer JUWELS am Forschungszentrum Jülich. Dieser Rechner, einer der leistungsfähigsten in Europa, bot die nötige Rechenkapazität, um ein Modell mit sieben Milliarden Parametern auf 500 Milliarden Token zu trainieren. Der Einsatz nationaler Infrastruktur unterstreicht die technologische Souveränität Deutschlands.
Im Gegensatz zu Cloud-basierten Trainings bei US-Anbietern bleibt die Kontrolle über die Daten und Prozesse im europäischen Raum. Die Kosteneffizienz des Trainings ist bemerkenswert und hebt sich deutlich vom Wettbewerb ab. Für Deutsch stieg der Aufwand um nur 20 Prozent im Vergleich zu Englisch.
Bei Llama 3 und GPT-4 lag der Aufpreis bei über 55 Prozent, bei Mistral sogar bei über 100 Prozent. Im Schnitt schlagen andere Sprachen bei Teuken mit 37 Prozent Aufpreis zu Buche – bei Llama 3 sind es 87 Prozent. Diese Differenz ist kein technisches Detail, sondern ein entscheidender Faktor für die Budgetplanung von IT-Abteilungen.
Unternehmen, die bereits hohe API-Kosten an US-Anbieter zahlen, können durch lokale Nutzung erhebliche Einsparungen erzielen. Das Konsortium umfasst neben den Fraunhofer-Instituten die TU Dresden, das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) und das Forschungszentrum Jülich. Diese Zusammenarbeit zwischen Wissenschaft und Industrie zeigt, wie öffentliche Förderung und technische Expertise ein funktionierendes Ökosystem schaffen können.
Die Verfügbarkeit des Modells seit dem 26. November 2024 unter Open-Source-Lizenz ermöglicht es Entwicklern, es in RAG-Anwendungen zu integrieren. Die Einstiegshürde für Unternehmen wird dadurch erheblich gesenkt. Spezialisierte Chatbots können nun ohne exorbitante Lizenzgebühren entwickelt werden. Die DFKI hat bereits drei Anwendungsfälle für die öffentliche Verwaltung veröffentlicht – alle basierend auf Teuken-7B.
„Innovationen wie diese stärken die digitale Souveränität, die Wettbewerbsfähigkeit und auch die Resilienz Deutschlands und Europas“, erklärte Dr. Franziska Brantner. Sie ist Parlamentarische Staatssekretärin im Bundesministerium für Wirtschaft und Klimaschutz. Die Förderung des Projekts mit 14 Millionen Euro ist Teil einer breiteren Strategie, die Abhängigkeit von US-Anbietern zu reduzieren.
Während in den USA ein 500 Milliarden Dollar schweres Gemeinschaftsprojekt für KI-Rechenzentren geplant ist, setzt Europa auf gezielte, effiziente Investitionen. Die Deutsche Telekom hat am 12. Dezember 2024 bekanntgegeben, das erste kommerzielle Angebot von Teuken-7B zu starten. Damit wird das Modell „Made in Germany“ auch für Unternehmen verfügbar, die keine eigene KI-Infrastruktur betreiben wollen.
Die Möglichkeit, das Modell lokal oder bei einem vertrauenswürdigen Cloudanbieter zu hosten, gibt CIOs die Kontrolle über ihre Datenflüsse zurück. Für Branchen mit hohen Compliance-Anforderungen – wie Finanzen, Gesundheitswesen oder öffentliche Verwaltung – ist dies ein entscheidender Vorteil. Datenschutzrichtlinien lassen sich so einfacher einhalten als bei externen US-Cloud-Diensten.
Die Open-Source-Lizenzierung fördert zudem Innovation durch Community-Beiträge. Im Gegensatz zu geschlossenen Systemen können Entwickler das Modell anpassen, verbessern und für spezifische Anwendungsfälle optimieren. Dies beschleunigt die Weiterentwicklung und schafft ein Ökosystem, das auf lokalen Anforderungen basiert.
Die Verfügbarkeit auf Hugging Face ermöglicht es Entwicklern und Wissenschaftlern, das Angebot des Modells schnell zu testen. Langfristig könnte dies dazu führen, dass europäische Modelle in bestimmten Domänen sogar leistungsfähiger sind als globale Konkurrenten. Die Unabhängigkeit von externen APIs sichert die langfristige Planbarkeit von IT-Projekten. Die OpenGPT-X-Initiative hat bereits 26 europäische Partner aus sieben Ländern eingebunden – ein Netzwerk, das über nationale Grenzen hinweg koordiniert wird.
Die Effizienz von Teuken-7B resultiert nicht aus der Größe des Modells, sondern aus der Intelligenz seiner Architektur. Während US-Anbieter auf Skalierung setzen, hat das Fraunhofer-Konsortium gezielt an der Optimierung der Tokenisierung gearbeitet. Die Wahl des Tokenizers beeinflusst direkt die Anzahl der benötigten Token – und damit den Energieverbrauch und die Antwortgeschwindigkeit.
Bei agglutinierenden Sprachen wie Deutsch, Finnisch, Ungarisch, Türkisch, Japanisch und Koreanisch ist dieser Effekt besonders ausgeprägt. Ein Beispiel: Die Phrase „in meinen Häusern“ kann in einigen Sprachen als ein einziges Wort konstruiert werden. Traditionelle Tokenizer zerlegen solche Konstrukte in viele Einzelteile, was die semantische Bedeutung verwässert.
Der neue Ansatz von Teuken behält diese Zusammenhänge besser bei, was die Qualität der Ergebnisse verbessert. Gleichzeitig reduziert er den Rechenaufwand – eine Effizienzsteigerung, die sich direkt auf die Betriebskosten niederschlägt. Unternehmen, die große Mengen an Texten verarbeiten, können so bis zu 80 Prozent an Ressourcenkosten einsparen.
Diese Architektur-Entscheidung ist kein technisches Experiment, sondern ein wirtschaftlicher Hebel. Für IT-Entscheider bedeutet dies, dass europäische Modelle nicht nur aus politischen Gründen interessant sind, sondern auch aus Kostensicht wettbewerbsfähig sein können. Die Kombination aus öffentlicher Förderung, wissenschaftlicher Expertise und kommerzieller Umsetzung durch die Telekom zeigt, wie ein funktionierendes Ökosystem aussehen kann.
CIOs sollten dieses Modell daher nicht als Nischenprojekt abtun, sondern als strategische Option für die eigene KI-Strategie 2025 bis 2027 prüfen. Die Investition in souveräne Technologie amortisiert sich durch geringere Betriebskosten und höhere Datensicherheit. Es handelt sich um eine Option für Entwicklern und Wissenschaftlern sowie für den industriellen Einsatz. Die Fraunhofer-IIS hat die Architekturdetails in einem technischen Whitepaper veröffentlicht – inklusive Benchmark-Daten gegenüber Llama 3 und Mistral.
Es handelt sich um ein europäisches Open-Source-KI-Sprachmodell mit sieben Milliarden Parametern, das auf allen 24 EU-Amtssprachen trainiert wurde.
Ein Konsortium unter Federführung der Fraunhofer-Institute für Intelligente Analyse- und Informationssysteme (IAIS) und für integrierte Schaltungen (IIS).
Sie müssen den Inhalt von reCAPTCHA laden, um das Formular abzuschicken. Bitte beachten Sie, dass dabei Daten mit Drittanbietern ausgetauscht werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Turnstile. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Facebook. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Instagram. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von X. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen