15.12.2025

4 Min. Lesezeit

Das Wichtigste in Kürze

  • Data Mesh verlagert die Datenverantwortung von zentralen Teams zu den Fachbereichen, die ihre Daten am besten kennen.
  • Die vier Prinzipien: domänenorientiertes Ownership, Data as a Product, Self-Service-Plattform und föderierte Governance.
  • Data Mesh löst das Skalierungsproblem zentraler Data Teams, die zum Flaschenhals für datengetriebene Entscheidungen werden.
  • Für den Mittelstand eignet sich ein pragmatischer Einstieg mit zwei bis drei Pilotdomänen statt einer Gesamtarchitektur.
  • Die größte Hürde ist nicht die Technik, sondern die organisatorische Bereitschaft, Datenverantwortung zu dezentralisieren.

Das zentrale Data Warehouse war jahrelang der Goldstandard der Unternehmensanalyse. Dann kam der Data Lake, der alles speichern sollte — und oft zum Data Swamp wurde. Jetzt verspricht Data Mesh, das Grundproblem zu lösen: Wer besitzt die Daten, und wer ist für ihre Qualität verantwortlich?

 

Die Antwort von Data Mesh ist radikal: Nicht die IT, sondern die Fachbereiche. Vertrieb verantwortet Vertriebsdaten, Produktion verantwortet Produktionsdaten, HR verantwortet HR-Daten. Die zentrale Plattform liefert nur die Infrastruktur. Für den Mittelstand ist dieser Ansatz besonders vielversprechend — wenn man ihn pragmatisch umsetzt.

 

Warum zentrale Datenteams scheitern

Das Muster ist in jedem größeren Unternehmen identisch: Die Fachabteilung braucht einen neuen Report. Sie stellt eine Anfrage beim zentralen Data Team. Das Data Team hat eine Warteschlange von sechs Wochen. Wenn der Report endlich fertig ist, hat sich die Fragestellung verändert. Der Flaschenhals ist strukturell.

Zentrale Data Teams können nicht schnell genug das Domänenwissen aufbauen, das für gute Datenprodukte nötig ist. Sie verstehen die Buchhaltungsdaten nicht so gut wie die Buchhaltung, die Produktionsdaten nicht so gut wie die Produktion. Das Ergebnis: Missverständnisse, Nacharbeit und Reports, die an der Realität vorbei gehen.

Data Mesh löst dieses Problem, indem es die Verantwortung dorthin verlagert, wo das Wissen liegt — in die Fachbereiche.

 

Die vier Prinzipien verstehen

1. Domänenorientiertes Ownership: Jeder Fachbereich besitzt und verantwortet seine Daten. Das bedeutet nicht, dass jeder Fachbereich sein eigenes Data Warehouse baut, sondern dass er die Qualität, Dokumentation und Verfügbarkeit seiner Daten sicherstellt.

2. Data as a Product: Daten werden wie interne Produkte behandelt — mit definierten SLAs, Dokumentation, Versionierung und Nutzerfeedback. Jedes Datenprodukt hat einen Product Owner, der für Qualität und Weiterentwicklung verantwortlich ist.

3. Self-Service Data Platform: Eine zentrale Plattform stellt Werkzeuge bereit, mit denen Fachbereiche ihre Datenprodukte eigenständig erstellen, testen und bereitstellen können. Die Plattform abstrahiert die technische Komplexität.

4. Föderierte Governance: Übergreifende Standards für Interoperabilität, Sicherheit und Compliance werden zentral definiert, aber dezentral umgesetzt. Das Governance-Team setzt den Rahmen, die Domänen füllen ihn.

 

Pragmatischer Einstieg für den Mittelstand

Die Lehrbuch-Version von Data Mesh setzt eine gewisse Reife voraus: starke Datenkultur, erfahrene Fachbereiche, eine leistungsfähige Plattform. Die Realität im Mittelstand sieht anders aus. Der pragmatische Einstieg funktioniert so:

Schritt 1: Zwei bis drei Domänen identifizieren, die hohe Datenkompetenz und klaren Bedarf an besseren Datenprodukten haben. Typisch: Vertrieb, Produktion, Finanzen.

Schritt 2: Für jede Pilotdomäne einen Data Product Owner benennen — eine Person aus dem Fachbereich, die Datenaffinität mitbringt und 20 bis 30 Prozent ihrer Zeit für Datenprodukte aufwendet.

Schritt 3: Ein erstes Datenprodukt pro Domäne definieren und bereitstellen. Einfach starten: ein gut dokumentierter, zuverlässiger Datensatz, der für andere Bereiche nutzbar ist.

Schritt 4: Nach sechs Monaten evaluieren: Hat sich die Datenqualität verbessert? Werden die Produkte genutzt? Wo sind die Reibungspunkte? Dann skalieren.

 

Technologie: Was Data Mesh wirklich braucht

Data Mesh ist keine Technologie-Entscheidung, aber es braucht technische Grundlagen:

Data Catalog: Ein zentraler Katalog, in dem alle Datenprodukte auffindbar, dokumentiert und bewertbar sind. Tools wie DataHub, Atlan oder Unity Catalog von Databricks erfüllen diese Funktion.

Data Contracts: Formale Vereinbarungen zwischen Daten-Produzenten und -Konsumenten über Format, Qualität und SLAs. Das verhindert, dass Änderungen an der Quelle nachgelagerte Systeme unbemerkt brechen.

Compute und Storage: Cloud-Plattformen wie Snowflake, Databricks oder BigQuery eignen sich, weil sie Mandantenfähigkeit und Self-Service-Zugriff nativ unterstützen. On-Premise ist möglich, aber aufwändiger.

Wichtig: Die Technologie-Investition für Data Mesh ist nicht höher als für ein zentrales Data Warehouse. Sie verteilt sich nur anders — weniger zentral, mehr in Plattform-Tooling und Domänen-Enablement.

 

Häufige Fragen

Ist Data Mesh nur etwas für Großunternehmen?

Nein. Das Grundprinzip — Datenverantwortung dorthin verlagern, wo das Wissen liegt — funktioniert ab etwa 100 Mitarbeitern und drei bis vier klar abgrenzbaren Geschäftsbereichen. Der Implementierungsumfang skaliert mit der Unternehmensgröße.

Brauche ich ein Data Mesh, wenn ich schon ein Data Warehouse habe?

Data Mesh und Data Warehouse schließen sich nicht aus. Viele erfolgreiche Implementierungen nutzen ein bestehendes Warehouse als Plattform-Schicht, auf der die Domänen ihre Datenprodukte bereitstellen. Data Mesh ist eine organisatorische Veränderung, keine technische Ablösung.

Was passiert mit dem zentralen Data Team?

Es transformiert sich zum Platform Team. Statt selbst Reports und Pipelines zu bauen, stellt es die Self-Service-Tools bereit, definiert Standards und unterstützt Domänen beim Aufbau ihrer Datenkompetenz. Die Rolle wird nicht weniger wichtig, sondern anders.

Wie stelle ich Datenqualität sicher, wenn Fachbereiche verantwortlich sind?

Durch drei Mechanismen: Data Contracts definieren Qualitätserwartungen formal. Automatisierte Datenqualitätschecks in der Plattform prüfen bei jeder Datenlieferung. Und transparente Qualitätsmetriken im Data Catalog schaffen Anreize für gute Datenprodukte — niemand will das Produkt mit den schlechtesten Bewertungen liefern.

Wie lange dauert die Einführung von Data Mesh?

Erste Pilotdomänen können in drei bis sechs Monaten produktiv sein. Eine unternehmensweite Skalierung dauert typischerweise 18 bis 24 Monate. Der wichtigste Erfolgsfaktor ist nicht die Technologie, sondern die Bereitschaft der Organisation, Verantwortung tatsächlich zu dezentralisieren.

 

Quelle des Titelbildes: Unsplash / JJ Ying

Weiterlesen

1
Die vier Prinzipien verstehen
Quelle: Artikelbestand

Quelle Titelbild: Redaktion

Diesen Beitrag teilen:

Auch verfügbar in

Weitere Beiträge

25.04.2026

Industrie 4.0 nach 15 Jahren: Drei Lehren, die Industrie 5.0 systematisch vermeiden sollte

Angelika Beierlein

Hannover Messe 2026 läuft vom 20. bis 24. April unter dem Leitthema "Industrial Transformation". Wer ...

Zum Beitrag
25.04.2026

Sovereign AI nach Hannover Messe 2026: Wie der Vorstand Architektur-Souveränität als Mehrebenen-Programm aufsetzt

Eva Mickler

Hannover Messe 20. bis 24. April 2026: NVIDIA hat in dieser Woche mit Deutscher Telekom, Mistral und ...

Zum Beitrag
25.04.2026

Deloitte State of AI 2026 vom 23. April: Drei Zahlen fürs nächste IT-Committee-Paper

Eva Mickler

TREND · ENTSCHEIDUNGSVORLAGE 8 Min. Lesezeit Am 23. April 2026 hat Deloitte im Rahmen seines State-of-AI-Berichts ...

Zum Beitrag
24.04.2026

CAIO oder CIO-plus: Was NewVantage, IBM und AWS zur KI-Leadership-Struktur 2026 sagen

Angelika Beierlein

TREND · KI-LEADERSHIP 7 Min. Lesezeit Zwei Benchmark-Studien treffen diese Woche auf denselben Vorstandstisch: ...

Zum Beitrag
24.04.2026

TPU 8i und Agent-Inference-Pods ab 22. April: Was Google Cloud Next 2026 für die nächste Board-Entscheidung zur KI-Infrastruktur bedeutet

Tobias Massow

5 Min. Lesezeit Google hat am 22. April 2026 auf Cloud Next in Las Vegas die achte TPU-Generation vorgestellt ...

Zum Beitrag
24.04.2026

CISA KEV-Update vom 20. April: Was die acht neuen Exploits in der Board-Sitzung landen lässt

Benedikt Langer

8 Min. Lesezeit · Stand: 23.04.2026 Am 20. April 2026 hat die US-Behörde CISA acht Schwachstellen ...

Zum Beitrag
Ein Magazin der Evernine Media GmbH