05.05.2026

7 Min. Lesezeit

37 Prozent der CIOs haben nach eigener Aussage vollständige Sichtbarkeit über alle KI-Tools in ihrer Organisation. Der Rest trifft Governance-Entscheidungen über ein System, das er nicht vollständig überblickt. Autonome KI verschärft diesen Blindflug: Wenn Modelle selbstständig entscheiden, fehlt oft nicht nur die Erklärbarkeit – es fehlt der vollständige Entscheidungspfad.

Das Wichtigste in Kürze

  • Shadow AI ist das Grundproblem. KI-Tools laufen in den meisten Unternehmen außerhalb der IT-Kontrolle – Governance greift dann strukturell zu spät.
  • Explainability und Audit-Trail sind nicht dasselbe. XAI erklärt Einzelentscheidungen, dokumentiert aber keine Entscheidungshistorie. CIOs brauchen beides, bekommen oft nur eines.
  • EU AI Act setzt den Rahmen, füllt ihn aber nicht. High-Risk-Klassifizierung ist der Ausgangspunkt, nicht das Ziel. Die eigentliche Governance-Arbeit passiert danach.

Verwandt:CIOs unter Druck: 62 Prozent bei KI-Governance  /  Logicalis CIO Report 2026: Nur 37 Prozent haben volle Sichtbarkeit

Die Frage, die CIOs zu spät stellen

Was ist autonome KI? Ein KI-System gilt als autonom, wenn es operative Entscheidungen trifft oder Handlungen auslöst, ohne dass ein Mensch jeden Einzelfall prüft. Das Kriterium ist nicht die Technologie, sondern der Prozess: Kreditentscheidungen, Anomalie-Erkennung in Produktionsanlagen oder Personalvorauswahl können alle autonom laufen – ob sie es tun, entscheidet die Architektur, nicht das Modell.

Autonome KI trifft Entscheidungen. Das ist der Punkt. Nicht: KI unterstützt Entscheidungen – das ist die Sprache der Pilotphase. Die Frage „Haben wir eine KI-Governance?“ kommt oft ein oder zwei Jahre nach der Frage „Haben wir autonome KI?“. Das ist die eigentliche Lücke.

Der EU AI Act kategorisiert Systeme in Risikoklassen. High-Risk-Anwendungen – Kreditentscheidungen, Personaltools, kritische Infrastruktur – brauchen Transparenz-Dokumentation, regelmäßige Tests und menschliche Überwachung. Das klingt nach Compliance. Es ist aber zuerst eine Engineering-Frage: Wer hat den Überblick über das, was entschieden wird – und wer kann es nachvollziehen?

37 %
der CIOs haben nach eigener Aussage vollständige Sichtbarkeit über alle KI-Tools in ihrer Organisation.

Drei Punkte, an denen Governance strukturell versagt

Das erste Problem ist Shadow AI. Mitarbeiter nutzen KI-Tools über Browser-Extensions, SaaS-Accounts und API-Zugänge, die nie in der IT-Beschaffung auftauchen. Das ist keine Böswilligkeit, das ist Effizienz. Wenn diese Tools Entscheidungen treffen oder Entscheidungsgrundlagen liefern, existieren sie für Governance-Zwecke trotzdem nicht.

Drei Fragen klären das Risiko: Gibt es KI-generierte Outputs, die in dokumentierten Geschäftsprozessen landen, ohne als KI-generiert markiert zu sein? Werden KI-Tool-Zugänge über persönliche Accounts abgerechnet, um IT-Procurement zu umgehen? Hat die IT in den letzten sechs Monaten ein KI-Tool entdeckt, von dem sie vorher nichts wusste? Eine „ja“ reicht: Dann greift Governance strukturell zu spät.

Das zweite Problem ist die Verwechslung von Explainability und Audit-Trail. XAI-Methoden wie SHAP oder LIME erklären, warum ein Modell in einem spezifischen Fall entschieden hat. Das ist nützlich, aber kein Audit-Trail. Ein Audit-Trail dokumentiert: Welches Modell, welche Version, welche Daten, welcher Zeitstempel, wer hat die Entscheidung verwendet? In der Praxis setzen CIOs XAI ein und denken, Explainability sei damit gelöst.

Erklärbarkeit ist ein Feature. Nachvollziehbarkeit ist eine Anforderung. Die beiden werden im Governance-Kontext zu häufig verwechselt.

Das dritte Problem trifft später, aber härter: Vendor Lock-in bei KI-Modellen. Wer ein Foundation-Modell eines Cloud-Providers finetuned, hat proprietäre Gewichte auf proprietärer Infrastruktur. Ein Wechsel bedeutet Daten-Export, Retraining, Validierung, Re-Zertifizierung. Bei High-Risk-Systemen dauert das typischerweise sechs bis achtzehn Monate. Das ist kein Problem in der Pilotphase. Es wird zum Problem, wenn ein Vendor Konditionen ändert oder Compliance-Anforderungen nicht mehr erfüllt.

Was im EU AI Act steht – und was nicht

Der AI Act schreibt für High-Risk-Systeme vor: technische Dokumentation, Risikomanagementsystem, Datensatz-Dokumentation, Logging, menschliche Aufsicht, Genauigkeitsmetriken. Das ist der regulatorische Mindestrahmen.

Was der AI Act nicht liefert: einen Governance-Rahmen für die Organisation dahinter. Wer ist intern für ein High-Risk-System verantwortlich? Welcher Prozess entscheidet, ob ein neues KI-Tool High-Risk ist? Was passiert, wenn ein System für eine neue Anwendung genutzt wird, die nachträglich als High-Risk eingestuft wird? Diese Fragen muss jede Organisation selbst beantworten. Der AI Act ist die Eingangsschranke, nicht das Framework.

Was strukturell hilft

  • KI-Inventar mit Use-Case-Klassifizierung, mindestens quartalsweise aktualisiert
  • Klarer Ownership: ein Name pro System, nicht eine Abteilung
  • Entscheidungslog der Modell-Versionen mit Deployment-Datum und Verwendungskontext
  • Regelmäßiger Drift-Check gegen definierte Genauigkeitsschwelle
  • Vertragsklauseln für Portabilität bei High-Risk-Vendor-Entscheidungen

Was Governance-Theater ist

  • KI-Ethik-Committee ohne Entscheidungsbefugnis über konkrete Deployments
  • Use-Case-Freigabe ohne technische Prüfung der tatsächlichen Architektur
  • XAI-Dashboard, der nur bei Beschwerden geöffnet wird
  • AI-Policy ohne definierten Prozess für Shadow-AI-Fälle
  • Einmalige Risk-Assessments ohne festgelegtes Wiederholungsintervall

Drei Fragen vor jeder autonomen KI-Implementierung

Die erste: Welche Entscheidungen trifft das System – und mit welchen Konsequenzen? Nicht: „Welches Problem löst es?“ Sondern: Was passiert, wenn das System falsch liegt? Wer trägt die Konsequenz – rechtlich, operativ, reputativ?

Die zweite: Wer kann die Entscheidung stoppen? Jedes autonome System braucht einen definierten Eskalationspfad. Kein Pfad bedeutet: Die Entscheidung passiert, bis etwas Gravierendes passiert.

Die dritte: Wie lange dauert es, das System zu ersetzen? Diese Frage beantworten, bevor das System im Einsatz ist. Danach ist die Antwort irrelevant.

Risk-Register für autonome KI sind nützlich, wenn jemand sie wirklich anschaut – und wenn die Fragen darin auf konkrete Systeme zeigen, nicht auf abstrakte Kategorien. Das NIST AI Risk Management Framework liefert hier einen praxisnahen Einstieg, der über den AI-Act-Mindeststandard hinausgeht.

Häufige Fragen

Was gilt als „autonomes“ KI-System im Sinne der Governance?

Ein System gilt als autonom, wenn es Entscheidungen trifft oder Handlungen auslöst, ohne dass ein Mensch jeden Einzelfall prüft. Das Kriterium ist nicht die Technologie, sondern der Prozess: Wenn ein Mitarbeiter die Entscheidung des Systems routinemäßig übernimmt, ohne sie inhaltlich zu prüfen, operiert das System de facto autonom.

Welche KI-Anwendungen fallen unter den EU AI Act als High-Risk?

Anhang III des AI Act listet acht Bereiche: biometrische Identifikation, kritische Infrastruktur, Bildung, Beschäftigung, Grundversorgung, Strafverfolgung, Grenzmanagement, Justiz. Innerhalb dieser Bereiche kommt es auf den konkreten Verwendungszweck an. Die meisten Unternehmen unterschätzen, wie viele ihrer internen Tools potenziell betroffen sind.

Was ist der Unterschied zwischen XAI und einem Audit-Trail?

XAI-Methoden (SHAP, LIME, Counterfactuals) erklären, warum ein Modell in einem konkreten Fall so entschieden hat. Ein Audit-Trail dokumentiert dagegen den gesamten Entscheidungspfad: Modell-Version, Eingabedaten, Zeitstempel, verwendende Person. Beides ist notwendig – keines ersetzt das andere. CIOs, die nur XAI einsetzen, haben keine Compliance-taugliche Nachvollziehbarkeit.

Wie gehe ich mit Shadow AI in meiner Organisation um?

Zunächst: Inventarisieren statt sanktionieren. Mitarbeiter nutzen KI-Tools aus Effizienzgründen, nicht um IT-Richtlinien zu sabotieren. Ein pragmatischer Ansatz kombiniert regelmäßige Self-Disclosure-Prozesse (quartalsweise Tool-Meldung), Browser-Extension-Monitoring und klare Kommunikation, welche Tools genehmigt sind. Zero-Tolerance-Policies ohne Alternativen treiben Shadow AI tiefer in die Unsichtbarkeit.

Welche konkreten Schritte empfehlen sich für den Aufbau eines KI-Governance-Rahmens?

Vier Schritte in dieser Reihenfolge: (1) KI-Inventar erstellen – alle genutzten Systeme, Verantwortliche, Verwendungszweck. (2) Risikoklassifizierung nach AI Act – welche Systeme fallen in High-Risk-Kategorien? (3) Ownership zuweisen – ein Name pro System, kein „die IT-Abteilung“. (4) Review-Zyklen etablieren – quartalsweise Inventar-Update, jährliche Risikoprüfung, sofortiger Review bei Änderungen am System oder seiner Verwendung.

Mehr aus dem MBF Media Netzwerk

Quelle Titelbild: Pexels / Vlada Karpovich

Diesen Beitrag teilen:
Auch verfuegbar inEnglisch  ·  Franzoesisch  ·  Spanisch

Auch verfügbar in

Weitere Beiträge

12.05.2026

Wer den AI-Betrieb wirklich besitzt: Drei Festlegungen

Angelika Beierlein

Vorstandsklausur: Wer den AI-Betrieb operativ besitzt, ist 2026 die entscheidende Frage. (Foto: V. Karpovich ...

Zum Beitrag
11.05.2026

AI im Vorstand: Wer entscheidet, wer haftet?

Eva Mickler

4 Min. Lesezeit BCG hat 2026 gemessen, dass in zwei von drei Vorstandsteams der CEO die letzte Entscheidung ...

Zum Beitrag
10.05.2026

CSRD-Testat: Wo die IT-Datenchain bricht

Eva Mickler

5 Min. Lesezeit Die ersten CSRD-Testate für das Geschäftsjahr 2025 werden im zweiten Quartal 2026 unterschrieben. ...

Zum Beitrag
08.05.2026

Die 40-Prozent-Frage: Wo das KI-Budget wirklich herkommt

Eva Mickler

7 Min. Lesezeit In unserem Gartner-Bericht vom 07.05. stand das Makro-Bild: 13,5 Prozent IT-Wachstum ...

Zum Beitrag
07.05.2026

Gartner: 13,5 % IT-Wachstum 2026 – CIOs müssen umschichten

Angelika Beierlein

5 Min. Lesezeit Gartner hat am 22. April 2026 die globale IT-Spending-Forecast für 2026 auf 6.310 Mrd. ...

Zum Beitrag
06.05.2026

KI-Agenten: ROI oder Pilot-Friedhof?

Angelika Beierlein

8 Min. Lesezeit Autonome KI-Agenten verteilen sich quer durch das Unternehmen, oft ohne Inventar und ...

Zum Beitrag
Ein Magazin der Evernine Media GmbH