Wer den AI-Betrieb wirklich besitzt: Drei Festlegungen
Angelika Beierlein
Vorstandsklausur: Wer den AI-Betrieb operativ besitzt, ist 2026 die entscheidende Frage. (Foto: V. Karpovich ...
7 Min. Lesezeit
37 Prozent der CIOs haben nach eigener Aussage vollständige Sichtbarkeit über alle KI-Tools in ihrer Organisation. Der Rest trifft Governance-Entscheidungen über ein System, das er nicht vollständig überblickt. Autonome KI verschärft diesen Blindflug: Wenn Modelle selbstständig entscheiden, fehlt oft nicht nur die Erklärbarkeit – es fehlt der vollständige Entscheidungspfad.
Das Wichtigste in Kürze
Verwandt:CIOs unter Druck: 62 Prozent bei KI-Governance / Logicalis CIO Report 2026: Nur 37 Prozent haben volle Sichtbarkeit
Was ist autonome KI? Ein KI-System gilt als autonom, wenn es operative Entscheidungen trifft oder Handlungen auslöst, ohne dass ein Mensch jeden Einzelfall prüft. Das Kriterium ist nicht die Technologie, sondern der Prozess: Kreditentscheidungen, Anomalie-Erkennung in Produktionsanlagen oder Personalvorauswahl können alle autonom laufen – ob sie es tun, entscheidet die Architektur, nicht das Modell.
Autonome KI trifft Entscheidungen. Das ist der Punkt. Nicht: KI unterstützt Entscheidungen – das ist die Sprache der Pilotphase. Die Frage „Haben wir eine KI-Governance?“ kommt oft ein oder zwei Jahre nach der Frage „Haben wir autonome KI?“. Das ist die eigentliche Lücke.
Der EU AI Act kategorisiert Systeme in Risikoklassen. High-Risk-Anwendungen – Kreditentscheidungen, Personaltools, kritische Infrastruktur – brauchen Transparenz-Dokumentation, regelmäßige Tests und menschliche Überwachung. Das klingt nach Compliance. Es ist aber zuerst eine Engineering-Frage: Wer hat den Überblick über das, was entschieden wird – und wer kann es nachvollziehen?
Das erste Problem ist Shadow AI. Mitarbeiter nutzen KI-Tools über Browser-Extensions, SaaS-Accounts und API-Zugänge, die nie in der IT-Beschaffung auftauchen. Das ist keine Böswilligkeit, das ist Effizienz. Wenn diese Tools Entscheidungen treffen oder Entscheidungsgrundlagen liefern, existieren sie für Governance-Zwecke trotzdem nicht.
Drei Fragen klären das Risiko: Gibt es KI-generierte Outputs, die in dokumentierten Geschäftsprozessen landen, ohne als KI-generiert markiert zu sein? Werden KI-Tool-Zugänge über persönliche Accounts abgerechnet, um IT-Procurement zu umgehen? Hat die IT in den letzten sechs Monaten ein KI-Tool entdeckt, von dem sie vorher nichts wusste? Eine „ja“ reicht: Dann greift Governance strukturell zu spät.
Das zweite Problem ist die Verwechslung von Explainability und Audit-Trail. XAI-Methoden wie SHAP oder LIME erklären, warum ein Modell in einem spezifischen Fall entschieden hat. Das ist nützlich, aber kein Audit-Trail. Ein Audit-Trail dokumentiert: Welches Modell, welche Version, welche Daten, welcher Zeitstempel, wer hat die Entscheidung verwendet? In der Praxis setzen CIOs XAI ein und denken, Explainability sei damit gelöst.
Erklärbarkeit ist ein Feature. Nachvollziehbarkeit ist eine Anforderung. Die beiden werden im Governance-Kontext zu häufig verwechselt.
Das dritte Problem trifft später, aber härter: Vendor Lock-in bei KI-Modellen. Wer ein Foundation-Modell eines Cloud-Providers finetuned, hat proprietäre Gewichte auf proprietärer Infrastruktur. Ein Wechsel bedeutet Daten-Export, Retraining, Validierung, Re-Zertifizierung. Bei High-Risk-Systemen dauert das typischerweise sechs bis achtzehn Monate. Das ist kein Problem in der Pilotphase. Es wird zum Problem, wenn ein Vendor Konditionen ändert oder Compliance-Anforderungen nicht mehr erfüllt.
Der AI Act schreibt für High-Risk-Systeme vor: technische Dokumentation, Risikomanagementsystem, Datensatz-Dokumentation, Logging, menschliche Aufsicht, Genauigkeitsmetriken. Das ist der regulatorische Mindestrahmen.
Was der AI Act nicht liefert: einen Governance-Rahmen für die Organisation dahinter. Wer ist intern für ein High-Risk-System verantwortlich? Welcher Prozess entscheidet, ob ein neues KI-Tool High-Risk ist? Was passiert, wenn ein System für eine neue Anwendung genutzt wird, die nachträglich als High-Risk eingestuft wird? Diese Fragen muss jede Organisation selbst beantworten. Der AI Act ist die Eingangsschranke, nicht das Framework.
Was strukturell hilft
Was Governance-Theater ist
Die erste: Welche Entscheidungen trifft das System – und mit welchen Konsequenzen? Nicht: „Welches Problem löst es?“ Sondern: Was passiert, wenn das System falsch liegt? Wer trägt die Konsequenz – rechtlich, operativ, reputativ?
Die zweite: Wer kann die Entscheidung stoppen? Jedes autonome System braucht einen definierten Eskalationspfad. Kein Pfad bedeutet: Die Entscheidung passiert, bis etwas Gravierendes passiert.
Die dritte: Wie lange dauert es, das System zu ersetzen? Diese Frage beantworten, bevor das System im Einsatz ist. Danach ist die Antwort irrelevant.
Risk-Register für autonome KI sind nützlich, wenn jemand sie wirklich anschaut – und wenn die Fragen darin auf konkrete Systeme zeigen, nicht auf abstrakte Kategorien. Das NIST AI Risk Management Framework liefert hier einen praxisnahen Einstieg, der über den AI-Act-Mindeststandard hinausgeht.
Ein System gilt als autonom, wenn es Entscheidungen trifft oder Handlungen auslöst, ohne dass ein Mensch jeden Einzelfall prüft. Das Kriterium ist nicht die Technologie, sondern der Prozess: Wenn ein Mitarbeiter die Entscheidung des Systems routinemäßig übernimmt, ohne sie inhaltlich zu prüfen, operiert das System de facto autonom.
Anhang III des AI Act listet acht Bereiche: biometrische Identifikation, kritische Infrastruktur, Bildung, Beschäftigung, Grundversorgung, Strafverfolgung, Grenzmanagement, Justiz. Innerhalb dieser Bereiche kommt es auf den konkreten Verwendungszweck an. Die meisten Unternehmen unterschätzen, wie viele ihrer internen Tools potenziell betroffen sind.
XAI-Methoden (SHAP, LIME, Counterfactuals) erklären, warum ein Modell in einem konkreten Fall so entschieden hat. Ein Audit-Trail dokumentiert dagegen den gesamten Entscheidungspfad: Modell-Version, Eingabedaten, Zeitstempel, verwendende Person. Beides ist notwendig – keines ersetzt das andere. CIOs, die nur XAI einsetzen, haben keine Compliance-taugliche Nachvollziehbarkeit.
Zunächst: Inventarisieren statt sanktionieren. Mitarbeiter nutzen KI-Tools aus Effizienzgründen, nicht um IT-Richtlinien zu sabotieren. Ein pragmatischer Ansatz kombiniert regelmäßige Self-Disclosure-Prozesse (quartalsweise Tool-Meldung), Browser-Extension-Monitoring und klare Kommunikation, welche Tools genehmigt sind. Zero-Tolerance-Policies ohne Alternativen treiben Shadow AI tiefer in die Unsichtbarkeit.
Vier Schritte in dieser Reihenfolge: (1) KI-Inventar erstellen – alle genutzten Systeme, Verantwortliche, Verwendungszweck. (2) Risikoklassifizierung nach AI Act – welche Systeme fallen in High-Risk-Kategorien? (3) Ownership zuweisen – ein Name pro System, kein „die IT-Abteilung“. (4) Review-Zyklen etablieren – quartalsweise Inventar-Update, jährliche Risikoprüfung, sofortiger Review bei Änderungen am System oder seiner Verwendung.
Quelle Titelbild: Pexels / Vlada Karpovich
Sie müssen den Inhalt von reCAPTCHA laden, um das Formular abzuschicken. Bitte beachten Sie, dass dabei Daten mit Drittanbietern ausgetauscht werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Turnstile. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Facebook. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Instagram. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von X. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen