kuenstliche_intelligenz_gesetz_digital_chiefs

KI: Was bereits möglich ist und was nicht sein darf

Künstliche Intelligenz eröffnet vielfältige Möglichkeiten, die zum Teil schon Realität sind. Eine KI macht aber auch vielen Menschen Angst und darf laut einem Gesetzesvorschlag der EU auch nicht alles. Aber lässt sich KI überhaupt bändigen oder regulieren?

Künstliche Intelligenz hat viele Facetten oder Gesichter. Es gibt schwache und starke KI. Inwieweit man einfaches Machine Learning (ML) oder noch „einfachere Übungen“ wie OCR-gestützte Texterkennung schon dazu rechnen kann, ist Auslegungssache. Predictive Maintenance ist eine der meistgenannten Industrieanwendungen, aber oftmals basieren die Systeme auf ML und nicht auf KI im engeren oder engsten Sinne. Denn dafür müssten sie in der Lage sein, komplett allein Entscheidungen zu treffen und/oder über ML hinausgehend auch zu Deep Learning fähig sein. Intelligenz nach menschlichem Ermessen schließt auch emotionale Intelligenz ein.

Und das wird den Maschinen einfach abgesprochen, nach heutigem Stand zumindest. Ein depressiver Roboter wie Marvin in „The Hitchhiker’s Guide to the Galaxy“ von Douglas Adams wäre vielleicht auch schwer zu ertragen, ein rachsüchtiger Maschinenmensch wie in der TV-Serie „Westworld“ hochgefährlich. Je intelligenter die Algorithmen und Maschinen werden, desto dringender wird es, sich mit den ethischen und rechtlichen Implikationen auseinanderzusetzen.

Totalüberwachung unter Tabu gestellt

Apropos Gesichtserkennung: Die allgemeine, flächendeckende Gesichterüberwachung und das Social Credit Scoring (kurz Social Scoring) sind zwei Anwendungsfälle, die gemäß dem am 21. April 2021 vorgelegten Entwurf eines europäischen KI-Gesetzes nicht zulässig wären. Laut BHO LEGAL wäre es der weltweit erste Rechtsrahmen für Künstliche Intelligenz. Genauer handelt es sich um den Entwurf für eine EU-Verordnung, die in zwölf Titel unterteilt ist. Besondere Relevanz hat dabei Titel III, der KI-Systeme mit hohem Risiko betrifft.

In Art. 5 sind verbotene Praktiken aufgelistet. Dazu gehören allen voran:

    • die biometrische Echtzeit-Fernidentifikation im Sinne der Strafverfolgung

 

    • manipulative Maßnahmen zur gezielten Meinungsbildung (besonders Kinder betreffend)

 

    • Social Scoring nach dem Vorbild Chinas

 

Zu den manipulativen Maßnahmen gehört t3n zufolge Spielzeug, das mit einem intelligenten Sprachassistenten ausgestattet ist und Kinder zu riskantem Verhalten verleitet. Art. 5 sieht aber auch Ausnahmen vor, etwa für den Fall von Terrorangriffen oder vermisster Kinder oder zur Verhinderung einer anhaltenden Gefahr für das Leben einer natürlichen Person.

Hochrisiko heißt nicht unbedingt verboten

Datenschützer und andere Kritiker fürchten jedoch, dass die Ausnahmen zu weit ausgelegt werden könnten und das Verbot der biometrischen Fernidentifikation über Gesichtserkennung ausgehöhlt werden könnte. Denn ein Verbot der Identifikation nach Geschlecht und der sexuellen Orientierung ist nicht vorgesehen, der in dem vorliegenden Entwurf verwendete Begriff „real-time“ birgt auch Diskussionsstoff, denn eine „Post“-Fernidentifikation ist dort nicht grundsätzlich verboten. Diese nachträgliche biometrische Fernidentifizierung ist dem Entwurf zufolge aber auch als hochriskant einzustufen. Gleiches gilt auch für KI-Systeme, die als Sicherheitskomponenten im Straßenverkehr und der Wasser-, Gas, Wärme- und Stromversorgung eingesetzt werden. Denn ein Ausfall oder eine Störung kann „in großem Umfang das Leben und die Gesundheit von Menschen gefährden und zu erheblichen Störungen bei der normalen Durchführung sozialer und wirtschaftlicher Tätigkeiten führen“, heißt es in dem Entwurf.

kuenstliche_intelligenz_hochrisiko_digital_chiefs
Ein Ausfall oder eine Störung von KI-Systemen kann das Leben und die Gesundheit von Menschen gefährden. Quelle: Adobe Stock / Alexander Limbach

Genaueres zu Hochrisiko-KI-Systemen liest man in Anhang III gemäß Artikel 6 Absatz 2. Unter Punkt 3, allgemeine und berufliche Bildung betreffend, sind da zum Beispiel KI-Systeme aufgeführt, die für Entscheidungen über den Zugang oder die Zuweisung zu Bildungseinrichtungen verwendet werden sollen. Unter Punkt 4, Beschäftigung, Personalmanagement und Zugang zur Selbständigkeit betreffend, sind zum Beispiel KI-Systeme genannt, die „bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet werden sollen“. Hochrisiko heißt dem Entwurf nach aber nicht, dass die Anwendungen auch verboten oder unter Bann gestellt werden sollen.

Als hochrisikobehaftet gelten dem Entwurf nach auch KI-Systeme, die Behörden zum Beispiel helfen sollen, Asylverfahren zu bearbeiten. Der Entwurf sieht unter anderem auch Verpflichtungen der einzelnen Akteure beim KI-Einsatz vor. Und das beinhaltet unter anderem die Einrichtung eines Qualitätsmanagementsystem und die Einrichtung eines Überwachungssystems nach dem Inverkehrbringen. Hinzu kommt ein automatisches Protokollieren der Aktivitäten, um diese rückverfolgen zu können.

Jede Menge ethische Fragen wie beim autonomen Fahren

Der Branchenverband Bitkom hat 2017 einen anfangs fast etwas kryptisch anmutenden Leitfaden: KI verstehen als Automation des Entscheidens veröffentlicht, in dem unter anderem von der Taxonomie der Automation des Entscheidens die Rede ist. Im nächsten Abschnitt sieht man ein 5-Stufen-Modell von „Der Mensch entscheidet“ (Stufe 0) über „Assistiertes Entscheiden“, „Teilweises Entscheiden“, „Geprüftes Entscheiden“ und „Delegiertes Entscheiden“ bis hin zum „Autonomen Entscheiden“ (Stufe 5).

Und das wirft zum Beispiel mit Blick auf autonomes Fahren ethische Fragen auf, allen voran das viel zitierte Beispiel: Soll das Auto im Zweifel ein Kind retten, um bei dem Ausweichmanöver das Leben eines Rentners zu gefährden? Gesichts- und Spracherkennung gehören auch schon zu den Standardübungen von KI, aber darf der Einsatz soweit gehen,

kuenstliche_intelligenz_autonomes_fahren_digital_chiefs
Die Taxonomie der Automation des Entscheidens wirft mit Blick auf autonomes Fahren ethische Fragen auf. Quelle: Adobe Stock / kaptn

Bewerber:innen oder Antragssteller:innen abzulehnen, weil der Algorithmus ihnen eine latente Krankheit attestiert? Für private Krankenversicherer wäre damit sicherlich eine rote Linie überschritten, für Arbeitgeber auch. Der Datenschutz gemäß DSGVO ist natürlich auch ein wichtiger Aspekt, aber auf den hier näher einzugehen, würde zu weit führen.

Fazit: Grundsätzlich ist es zu begrüßen, dass die EU einen gesetzlichen Rahmen für den KI-Einsatz stecken will. Wünschenswert wären sogar weltweite Standards und Richtlinien, um zu verhindern, dass bestimmte ethische Grenzlinien überschritten werden. Aber es muss natürlich auch sichergestellt sein, dass sich alle daran halten, einschließlich der Privatwirtschaft und den Behörden. Gleichzeitig darf das Korsett auch nicht zu eng geschnürt werden, um Innovation nicht im Keim zu ersticken.

Quelle Titelbild: Adobe Stock / Alexander Limbach

Diesen Beitrag teilen:

Weitere Beiträge

Die neue „Schlüssel“-Technologie? Unternehmen auf der Suche nach einer Passwort-Alternative

Eine echte, praktikable Alternative für das herkömmliche Passwort zu finden, war lange Jahre das Ziel ... »

02.12.2022 | Redaktion Digital Chiefs

IT-Unternehmen holen in Sachen Diversity & Inklusion auf

Arbeitnehmer legen immer mehr Wert auf Diversity und Equal Pay, auch Bewerber:innen verlangen nach diesen ... »

01.12.2022 | Redaktion Digital Chiefs