04.04.2026

6 Min. Lesezeit

78 Prozent aller Beschäftigten nutzen KI-Tools, die ihre IT-Abteilung nicht freigegeben hat. Das ist keine Prognose, das ist der dokumentierte Status quo in Unternehmen weltweit. Shadow AI hat sich binnen 18 Monaten vom Randphänomen zur größten unkontrollierten Technologie-Adoption in der Unternehmensgeschichte entwickelt. Die Frage ist nicht mehr ob Mitarbeiter generative KI nutzen, sondern wie Organisationen damit umgehen, dass sie es längst tun.

Das Wichtigste in Kürze

  • 78 Prozent der Beschäftigten nutzen KI-Tools ohne IT-Freigabe, 46 Prozent würden auch bei einem expliziten Verbot weitermachen (WalkMe/Software AG, 2025).
  • Nur 15 Prozent der Unternehmen haben trotz nachgewiesener KI-Nutzung Governance-Richtlinien implementiert.
  • 38 Prozent der Mitarbeiter teilen vertrauliche Unternehmensdaten mit externen KI-Plattformen ohne Genehmigung.
  • Gartner prognostiziert, dass 40 Prozent der Unternehmen bis 2027 von Shadow-AI-Sicherheitsvorfällen betroffen sein werden.

Was Shadow AI von Shadow IT unterscheidet

Definition

Shadow AI bezeichnet die Nutzung von KI-Tools und -Diensten durch Mitarbeiter ohne Wissen, Freigabe oder Kontrolle der IT-Abteilung. Anders als klassische Shadow IT betrifft Shadow AI nicht nur die Infrastruktur, sondern direkt die Verarbeitung vertraulicher Unternehmensdaten und die Qualität von Entscheidungsprozessen.

Shadow IT war ein Infrastrukturproblem. Mitarbeiter installierten Dropbox, nutzten private Cloud-Dienste oder richteten eigene Collaboration-Tools ein, weil die IT-Abteilung zu langsam war. Das Risiko war kalkulierbar: ungepatchte Software, ungesicherte Endpoints, fehlende Backups. Die IT konnte nachziehen, Alternativen anbieten und die meisten Schatten-Dienste in den kontrollierten Perimeter überführen.

Shadow AI ist fundamental anders. Es geht nicht um Software-Installation, sondern um Datenabfluss in Echtzeit. Jede Eingabe in ChatGPT, Claude, Gemini oder Copilot ist potenziell ein Datenleck. Vertragsentwürfe, Kundenlisten, Strategiepapiere, Quellcode, Finanzdaten – alles landet auf Servern, die das Unternehmen weder kontrolliert noch auditieren kann. Und anders als bei einer Dropbox-Datei gibt es kein Zurückholen.

Der entscheidende Unterschied: Shadow IT betraf die Infrastruktur. Shadow AI betrifft die Entscheidungsfindung. Wenn ein Mitarbeiter einen Vertragsentwurf von einem KI-Modell überarbeiten lässt, delegiert er implizit juristische Einschätzungen an ein System ohne Haftung und ohne Kontext. Wenn ein Controller Finanzdaten durch ein externes Modell schickt, verlässt vertrauliches Material den kontrollierten Perimeter – unwiderruflich.

Hinzu kommt die Geschwindigkeit der Adoption. Die Verbreitung von Dropbox in Unternehmen dauerte Jahre. ChatGPT erreichte 100 Millionen Nutzer in zwei Monaten. Die IT-Abteilung hatte keine Chance, Richtlinien zu entwickeln, bevor die Nutzung bereits Alltag war.

Dazu kommt eine regulatorische Dimension, die Shadow IT nie hatte. Unter der DSGVO ist jede Verarbeitung personenbezogener Daten durch Dritte genehmigungspflichtig. NIS2 verschärft die Pflichten für kritische und wichtige Einrichtungen. Der EU AI Act stellt zusätzliche Anforderungen an die Dokumentation von KI-Einsatz in Unternehmen. Wer nicht weiß, welche KI-Tools seine Mitarbeiter nutzen, kann keine dieser Pflichten erfüllen. Shadow AI ist damit nicht nur ein Sicherheits-, sondern ein handfestes Haftungsrisiko.

Die Dimension des Problems: 78 Prozent ohne Freigabe

Mehrere unabhängige Erhebungen aus dem Jahr 2025 zeichnen ein konsistentes Bild. Die WalkMe State of Digital Adoption Survey befragte über 3.500 Wissensarbeiter weltweit. Das Ergebnis: 78 Prozent geben offen zu, KI-Tools zu nutzen, die ihr Arbeitgeber nicht genehmigt hat. Die UpGuard-Studie vom November 2025 kommt auf eine noch höhere Zahl: Über 80 Prozent der Befragten nutzen nicht genehmigte KI-Tools im Arbeitsalltag.

78 %
der Beschäftigten nutzen KI-Tools ohne Freigabe ihrer IT-Abteilung
Quelle: WalkMe State of Digital Adoption Survey, 2025

Noch bemerkenswerter: Die Nutzung korreliert positiv mit der Hierarchiestufe. Laut UpGuard nutzen Führungskräfte unautorisierte KI-Tools häufiger als ihre Teams. 69 Prozent der C-Suite-Mitglieder und 66 Prozent der Senior Vice Presidents sehen kein Problem darin, Geschwindigkeit über Datenschutz zu stellen. Die Botschaft nach unten ist damit gesetzt, auch wenn sie nie ausgesprochen wird.

Besonders betroffen sind wissensintensive Abteilungen. Marketing-Teams nutzen KI für Texterstellung und Kampagnen-Ideen. Rechtsabteilungen lassen Verträge zusammenfassen. Finanzteams analysieren Daten. HR generiert Stellenausschreibungen und Bewertungsvorlagen. Die Nutzung ist breit, tief und in den meisten Fällen vollständig unsichtbar für die IT-Abteilung und ihre Monitoring-Systeme.

Eine BlackFog-Untersuchung ergänzt das Bild um eine weitere Dimension: 60 Prozent der Mitarbeiter geben an, bereit zu sein, Sicherheitsrisiken einzugehen, um Deadlines einzuhalten. KI-Tools sind für viele das Mittel der Wahl, um unter Zeitdruck produktiv zu bleiben. Das ist keine böswillige Umgehung. Das ist rationale Selbsthilfe in Organisationen, die keine Alternativen anbieten.

Branchenübergreifend zeigt sich ein Muster: Je regulierter die Branche, desto größer die Kluft zwischen offizieller Policy und tatsächlicher Nutzung. Finanzdienstleister, Versicherer und Gesundheitsunternehmen haben oft die strengsten Verbote und gleichzeitig die höchsten Nutzungsraten über Umwege. Die Produktivitätsgewinne sind für Mitarbeiter unmittelbar spürbar, die Risiken abstrakt und zeitverzögert. Solange diese Asymmetrie besteht, wird jedes Verbot unterlaufen.

Warum Verbote nicht funktionieren

Software AG hat in einer Erhebung 2025 einen Datenpunkt geliefert, der die gesamte Verbotsstrategie infrage stellt: 46 Prozent der Mitarbeiter geben an, unautorisierte KI-Tools auch dann weiterzunutzen, wenn ihr Unternehmen sie ausdrücklich verbietet. Das ist keine Rebellion und kein Trotz. Das ist rationales Verhalten von Menschen, die ihre Arbeit effizienter erledigen wollen und dafür keine freigegebene Alternative bekommen.

Die Parallele zu Shadow IT in den 2010er-Jahren ist lehrreich. Damals versuchten IT-Abteilungen, Cloud-Dienste zu blockieren. Das Ergebnis: Mitarbeiter wichen auf private Geräte und persönliche Accounts aus. Das Problem wurde nicht gelöst, sondern unsichtbar gemacht. Genau das passiert jetzt mit KI. Laut der WalkMe-Erhebung greifen bereits 58 Prozent der Beschäftigten über persönliche Geräte oder private Accounts auf KI-Tools zu.

Ein Verbot verschärft das Risiko sogar. Wer offiziell nicht nutzen darf, fragt auch nicht nach, ob bestimmte Daten eingegeben werden dürfen. Es gibt keinen Ansprechpartner, keine Richtlinie, keine Eskalation. Die Nutzung findet trotzdem statt, nur ohne jede Kontrolle, ohne Logging und ohne die Möglichkeit, im Schadensfall nachzuvollziehen, was passiert ist.

Prohibition erzeugt keine Compliance. Sie erzeugt Intransparenz. Und Intransparenz ist das Gegenteil von dem, was Organisationen brauchen, wenn 78 Prozent ihrer Belegschaft täglich mit externen KI-Systemen interagieren.

Es gibt noch einen weiteren Effekt, der in der Debatte oft übersehen wird: Verbote schaden der Wettbewerbsfähigkeit. Unternehmen, die KI-Nutzung pauschal untersagen, verlieren zweifach. Sie verzichten auf Produktivitätsgewinne, die ihre Konkurrenten bereits realisieren. Und sie signalisieren Bewerbern und Mitarbeitern, dass die Organisation technologisch rückwärtsgewandt agiert. In einem Arbeitsmarkt, in dem KI-Kompetenz zunehmend als Grundqualifikation gilt, ist das ein Nachteil der sich kurzfristig in Fluktuation und langfristig in Innovationsrückstand niederschlägt.

Der Governance-Gap in drei Zahlen

70 %
beobachten KI-Nutzung durch Mitarbeiter
15 %
haben KI-Governance-Richtlinien implementiert
38 %
teilen vertrauliche Daten mit KI-Plattformen

Diese drei Zahlen beschreiben das Kernproblem in seiner ganzen Schärfe. 70 Prozent der Organisationen wissen, dass ihre Mitarbeiter generative KI nutzen. Aber nur 15 Prozent haben darauf mit implementierten Richtlinien reagiert. Gleichzeitig teilen 38 Prozent der Mitarbeiter laut einer gemeinsamen Erhebung von CybSafe und der National Cybersecurity Alliance bereits vertrauliche Unternehmensdaten mit externen KI-Plattformen – ohne jede Genehmigung.

Die finanzielle Dimension ist erheblich. Gartner prognostiziert, dass 40 Prozent der Unternehmen bis 2027 von Sicherheitsvorfällen betroffen sein werden, die direkt auf Shadow AI zurückgehen. Die durchschnittlichen Mehrkosten eines solchen Vorfalls liegen laut Branchenerhebungen bei rund 670.000 US-Dollar im Vergleich zu konventionellen Sicherheitsvorfällen.

Doch die finanziellen Kosten sind nur die sichtbare Spitze. Der eigentliche Schaden liegt in der Erosion der Datenhoheit. Einmal in ein externes Modell eingegebene Daten lassen sich nicht zurückrufen. Trainingszyklen, Caching-Mechanismen und Server-Logs der Anbieter entziehen sich jeder Kontrolle durch das Unternehmen. Was heute als harmlose Produktivitätshilfe erscheint, kann morgen ein Compliance-Verstoß unter DSGVO oder NIS2 sein. Für regulierte Branchen wie Finanzdienstleistungen oder Gesundheitswesen verschärft sich das Problem zusätzlich: Hier stehen neben Bußgeldern auch Berufsverbote und persönliche Haftung im Raum.

Was funktioniert: Governance statt Prohibition

Die Unternehmen, die Shadow AI erfolgreich eindämmen, setzen nicht auf Technologie allein. Sie kombinieren drei Hebel, die zusammenwirken. Keiner der drei reicht isoliert betrachtet aus, aber gemeinsam verändern sie die Dynamik grundlegend.

Erstens: Freigegebene Alternativen bereitstellen, bevor verboten wird. Wer ChatGPT verbietet, ohne eine interne Alternative anzubieten, verliert. Enterprise-Versionen von KI-Tools mit Single-Sign-On, Data-Loss-Prevention und vollständigem Audit-Logging sind der Mindeststandard. Die Nutzungserfahrung muss mindestens gleichwertig sein. Mitarbeiter weichen nicht aus Prinzip auf private Tools aus, sondern weil das Unternehmenstool langsamer, eingeschränkter oder schlicht nicht vorhanden ist.

Zweitens: Nutzungsrichtlinien statt Verbote. Eine funktionale KI-Governance-Policy definiert nicht was verboten ist, sondern wie KI-Tools sicher genutzt werden. Welche Datenklassifikationen dürfen in welche Tools eingegeben werden? Wer prüft KI-generierte Outputs vor einer geschäftsrelevanten Entscheidung? Wo liegt die Haftung bei fehlerhaften KI-Ergebnissen? Nur 32 Prozent der Beschäftigten haben laut WalkMe bisher formale KI-Schulungen erhalten. Dieses Defizit lässt sich schneller beheben als jedes technische Kontrollsystem.

Drittens: Sichtbarkeit herstellen. Shadow AI Discovery Tools und SaaS-Management-Plattformen erfassen, welche KI-Dienste im Unternehmensnetzwerk genutzt werden. Nicht um zu bestrafen, sondern um informierte Entscheidungen zu ermöglichen. Wer weiß, dass das Marketing-Team täglich Kundendaten in ein unautorisiertes Tool eingibt, kann gezielt reagieren. Wer es nicht weiß, erfährt davon erst beim Sicherheitsvorfall oder bei der nächsten DSGVO-Prüfung.

Die Reihenfolge ist entscheidend: Erst Sichtbarkeit, dann Richtlinien, dann sichere Alternativen. Wer mit dem Verbot anfängt, hat bereits verloren, weil er das Problem nur in die Unsichtbarkeit verschiebt.

Der strategische Gewinn einer funktionierenden KI-Governance geht über Risikominimierung hinaus. Organisationen, die ihren Mitarbeitern sichere, leistungsfähige KI-Tools bereitstellen, erfassen gleichzeitig Nutzungsdaten, die zeigen, wo KI den größten Hebel hat. Diese Daten sind die Grundlage für gezielte Investitionen, für Automatisierungsentscheidungen und für die nächste Generation von Produktivitätswerkzeugen. Wer Shadow AI in geordnete Bahnen lenkt, baut nicht nur Risiko ab. Er baut Wissen auf, das die Konkurrenz nicht hat.

Häufige Fragen

Was genau ist Shadow AI?

Shadow AI bezeichnet die Nutzung von KI-Tools und -Diensten durch Mitarbeiter ohne Wissen oder Freigabe der IT-Abteilung. Dazu gehören öffentliche Dienste wie ChatGPT, Claude, Gemini oder Midjourney, die über private Accounts, persönliche Geräte oder den Browser genutzt werden.

Warum ist Shadow AI gefährlicher als Shadow IT?

Shadow IT betraf primär die Infrastruktur – unautorisierte Software oder Cloud-Dienste. Shadow AI betrifft direkt die Verarbeitung sensibler Daten und die Qualität von Entscheidungsprozessen. Jede Eingabe in ein externes KI-Tool ist potenziell ein unwiderruflicher Datenabfluss.

Wie viele Mitarbeiter nutzen unautorisierte KI-Tools?

Zwischen 71 und 80 Prozent je nach Studie. Die WalkMe-Erhebung von 2025 beziffert den Anteil auf 78 Prozent, die UpGuard-Studie auf über 80 Prozent. Auffällig: Die Nutzungsrate steigt mit der Hierarchiestufe.

Funktionieren Verbote gegen Shadow AI?

Nein. 46 Prozent der Mitarbeiter geben an, unautorisierte KI-Tools auch bei einem expliziten Verbot weiterzunutzen. 58 Prozent weichen auf private Geräte und Accounts aus. Verbote erzeugen Intransparenz statt Compliance.

Was kostet ein Shadow-AI-Sicherheitsvorfall?

Sicherheitsvorfälle mit Shadow-AI-Bezug kosten im Durchschnitt rund 670.000 US-Dollar mehr als konventionelle Vorfälle. Gartner rechnet damit, dass 40 Prozent der Unternehmen bis 2027 betroffen sein werden.

Quelle Titelbild: Pexels / Sora Shimazaki (px:5935787)

Diesen Beitrag teilen:

Weitere Beiträge

11.04.2026

Chief AI Officer 2026: Echte Rolle oder der nächste C-Level-Titel?

Tobias Massow

⏱ 9 Min. Lesezeit Der Chief AI Officer ist die am häufigsten angekündigte und am seltensten ...

Zum Beitrag
10.04.2026

Cloud Repatriation 2026 ist eine statistische Illusion – wer darauf hereinfällt, verpasst den wirklichen Architektur-Shift

Benedikt Langer

7 Min. Lesezeit "86 Prozent der CIOs planen Cloud Repatriation" lautet die Überschrift, die sich seit ...

Zum Beitrag
09.04.2026

Vendor-Consolidation 2026: Warum 68 Prozent der IT-Organisationen konsolidieren wollen – und warum die Roadmap 18 Monate länger dauert als geplant

Benedikt Langer

7 Min. Lesezeit 68 Prozent der IT-Organisationen planen 2026 eine Vendor-Consolidation. Die Mehrheit ...

Zum Beitrag
08.04.2026

KI-Governance 2026: Nur 14 Prozent haben geklärt, wer die Verantwortung trägt

Tobias Massow

7 Min. Lesezeit 87 Prozent der Unternehmen erhöhen ihre KI-Budgets. Aber nur 14 Prozent haben auf Führungsebene ...

Zum Beitrag
07.04.2026

Prozent Pay Gap: Gehaltstransparenz ab Juni

Benedikt Langer

8 Min. Lesezeit Ab Juni 2026 müssen Gehaltsspannen in Stellenanzeigen stehen. Die Frage nach dem aktuellen ...

Zum Beitrag
06.04.2026

Cyber-Versicherung 2026: Prämien verdoppelt, Deckung halbiert – die Rechnung die kein CFO sehen will

Benedikt Langer

6 Min. Lesezeit 15,3 Mrd. US-Dollar Prämienvolumen, 15 bis 20 Prozent Preisanstieg für 2026 und neue ...

Zum Beitrag
Ein Magazin der Evernine Media GmbH