Smart City Index 2024: München bleibt an der Spitze, Bochum rückt auf, Nürnberg stürzt ab
Redaktion Digital Chiefs
München hat im neuen Smart City Index des Branchenverbands Bitkom den Vorsprung gegenüber Hamburg ...
Zum BeitragKünstliche Intelligenz eröffnet vielfältige Möglichkeiten, die zum Teil schon Realität sind. Eine KI macht aber auch vielen Menschen Angst und darf laut einem Gesetzesvorschlag der EU auch nicht alles. Aber lässt sich KI überhaupt bändigen oder regulieren?
Künstliche Intelligenz hat viele Facetten oder Gesichter. Es gibt schwache und starke KI. Inwieweit man einfaches Machine Learning (ML) oder noch „einfachere Übungen“ wie OCR-gestützte Texterkennung schon dazu rechnen kann, ist Auslegungssache. Predictive Maintenance ist eine der meistgenannten Industrieanwendungen, aber oftmals basieren die Systeme auf ML und nicht auf KI im engeren oder engsten Sinne. Denn dafür müssten sie in der Lage sein, komplett allein Entscheidungen zu treffen und/oder über ML hinausgehend auch zu Deep Learning fähig sein. Intelligenz nach menschlichem Ermessen schließt auch emotionale Intelligenz ein.
Und das wird den Maschinen einfach abgesprochen, nach heutigem Stand zumindest. Ein depressiver Roboter wie Marvin in „The Hitchhiker’s Guide to the Galaxy“ von Douglas Adams wäre vielleicht auch schwer zu ertragen, ein rachsüchtiger Maschinenmensch wie in der TV-Serie „Westworld“ hochgefährlich. Je intelligenter die Algorithmen und Maschinen werden, desto dringender wird es, sich mit den ethischen und rechtlichen Implikationen auseinanderzusetzen.
Apropos Gesichtserkennung: Die allgemeine, flächendeckende Gesichterüberwachung und das Social Credit Scoring (kurz Social Scoring) sind zwei Anwendungsfälle, die gemäß dem am 21. April 2021 vorgelegten Entwurf eines europäischen KI-Gesetzes nicht zulässig wären. Laut BHO LEGAL wäre es der weltweit erste Rechtsrahmen für Künstliche Intelligenz. Genauer handelt es sich um den Entwurf für eine EU-Verordnung, die in zwölf Titel unterteilt ist. Besondere Relevanz hat dabei Titel III, der KI-Systeme mit hohem Risiko betrifft.
In Art. 5 sind verbotene Praktiken aufgelistet. Dazu gehören allen voran:
Zu den manipulativen Maßnahmen gehört t3n zufolge Spielzeug, das mit einem intelligenten Sprachassistenten ausgestattet ist und Kinder zu riskantem Verhalten verleitet. Art. 5 sieht aber auch Ausnahmen vor, etwa für den Fall von Terrorangriffen oder vermisster Kinder oder zur Verhinderung einer anhaltenden Gefahr für das Leben einer natürlichen Person.
Datenschützer und andere Kritiker fürchten jedoch, dass die Ausnahmen zu weit ausgelegt werden könnten und das Verbot der biometrischen Fernidentifikation über Gesichtserkennung ausgehöhlt werden könnte. Denn ein Verbot der Identifikation nach Geschlecht und der sexuellen Orientierung ist nicht vorgesehen, der in dem vorliegenden Entwurf verwendete Begriff „real-time“ birgt auch Diskussionsstoff, denn eine „Post“-Fernidentifikation ist dort nicht grundsätzlich verboten. Diese nachträgliche biometrische Fernidentifizierung ist dem Entwurf zufolge aber auch als hochriskant einzustufen. Gleiches gilt auch für KI-Systeme, die als Sicherheitskomponenten im Straßenverkehr und der Wasser-, Gas, Wärme- und Stromversorgung eingesetzt werden. Denn ein Ausfall oder eine Störung kann „in großem Umfang das Leben und die Gesundheit von Menschen gefährden und zu erheblichen Störungen bei der normalen Durchführung sozialer und wirtschaftlicher Tätigkeiten führen“, heißt es in dem Entwurf.
Genaueres zu Hochrisiko-KI-Systemen liest man in Anhang III gemäß Artikel 6 Absatz 2. Unter Punkt 3, allgemeine und berufliche Bildung betreffend, sind da zum Beispiel KI-Systeme aufgeführt, die für Entscheidungen über den Zugang oder die Zuweisung zu Bildungseinrichtungen verwendet werden sollen. Unter Punkt 4, Beschäftigung, Personalmanagement und Zugang zur Selbständigkeit betreffend, sind zum Beispiel KI-Systeme genannt, die „bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet werden sollen“. Hochrisiko heißt dem Entwurf nach aber nicht, dass die Anwendungen auch verboten oder unter Bann gestellt werden sollen.
Als hochrisikobehaftet gelten dem Entwurf nach auch KI-Systeme, die Behörden zum Beispiel helfen sollen, Asylverfahren zu bearbeiten. Der Entwurf sieht unter anderem auch Verpflichtungen der einzelnen Akteure beim KI-Einsatz vor. Und das beinhaltet unter anderem die Einrichtung eines Qualitätsmanagementsystem und die Einrichtung eines Überwachungssystems nach dem Inverkehrbringen. Hinzu kommt ein automatisches Protokollieren der Aktivitäten, um diese rückverfolgen zu können.
Der Branchenverband Bitkom hat 2017 einen anfangs fast etwas kryptisch anmutenden Leitfaden: KI verstehen als Automation des Entscheidens veröffentlicht, in dem unter anderem von der Taxonomie der Automation des Entscheidens die Rede ist. Im nächsten Abschnitt sieht man ein 5-Stufen-Modell von „Der Mensch entscheidet“ (Stufe 0) über „Assistiertes Entscheiden“, „Teilweises Entscheiden“, „Geprüftes Entscheiden“ und „Delegiertes Entscheiden“ bis hin zum „Autonomen Entscheiden“ (Stufe 5).
Und das wirft zum Beispiel mit Blick auf autonomes Fahren ethische Fragen auf, allen voran das viel zitierte Beispiel: Soll das Auto im Zweifel ein Kind retten, um bei dem Ausweichmanöver das Leben eines Rentners zu gefährden? Gesichts- und Spracherkennung gehören auch schon zu den Standardübungen von KI, aber darf der Einsatz soweit gehen,
Bewerber:innen oder Antragssteller:innen abzulehnen, weil der Algorithmus ihnen eine latente Krankheit attestiert? Für private Krankenversicherer wäre damit sicherlich eine rote Linie überschritten, für Arbeitgeber auch. Der Datenschutz gemäß DSGVO ist natürlich auch ein wichtiger Aspekt, aber auf den hier näher einzugehen, würde zu weit führen.
Fazit: Grundsätzlich ist es zu begrüßen, dass die EU einen gesetzlichen Rahmen für den KI-Einsatz stecken will. Wünschenswert wären sogar weltweite Standards und Richtlinien, um zu verhindern, dass bestimmte ethische Grenzlinien überschritten werden. Aber es muss natürlich auch sichergestellt sein, dass sich alle daran halten, einschließlich der Privatwirtschaft und den Behörden. Gleichzeitig darf das Korsett auch nicht zu eng geschnürt werden, um Innovation nicht im Keim zu ersticken.
Quelle Titelbild: Adobe Stock / Alexander Limbach