Forschungscampus für Offshore-Drohnen entsteht in Cuxhaven
Redaktion Digital Chiefs
Wartungsarbeiten an Offshore-Windanlagen sind oft sehr gefährlich und stark wetterabhängig. Drohnen ...
Zum BeitragManchen geht er zu weit, anderen nicht weit genug. Ende 2022 haben die zuständigen Minister:innen der 27 Mitgliedsländer ihre Position zum geplanten AI Act beziehungsweise EU-Gesetz zur Regulierung von künstlicher Intelligenz vorgestellt.
Der AI Act war für die EU ein umfängliches Werk. Die Vollständigkeit des ersten weltweiten Gesetzes für Künstliche Intelligenz ist, so wie die Technologie selbst, schnell überholt. Auch aus diesem Grund musste im Gesetzesentwurf bereits für die nächsten Jahre vorgeplant werden. Die Bundesregierung hatte am 8. November 2022 schon Verbesserungsvorschläge gemacht die den Kritikern von allen Seiten – den Wirtschafts- wie den Datenschutz- und Menschenrechtsverbänden – nicht weit oder deutlich genug gingen.
Netzpolitik.org titelte einen Tag nach der Ratssitzung, die Ampel verpasse den Grundrechteschutz bei der Regulierung der künstlichen Intelligenz. Algorithmwatch sehe gefährliche Schlupflöcher und Anreize zur „Remote Biometric Identification“ (RBI), statt diese zu verhindern. Ivan Bartoš, stellvertretender tschechischer Ministerpräsident für Digitalisierung und Minister für Regionalentwicklung, betonte in seiner Erklärung indes die Vorteile und schrieb, dass die Grundrechte der Bürgerinnen und Bürger selbstverständlich geachtet würden.
Viele Unternehmen sehen in KI tatsächlich vor allem eine Chance, schreibt der Branchenverband Bitkom zu den Vorschlägen des EU-Rates zum geplanten AI Act, der etwa den Missbrauch verhindern soll. Kritiker aus der Unternehmenswelt sehen darin allerdings auch eine Behinderung von Innovation.
Susanne Dehmel, Mitglied der Geschäftsleitung von Bitkom, für den der EU-Rat seine Position angekündigt hat, so dazu geäußert:
„Der Rat der Europäischen Union hat mit seinen Vorschlägen zum AI Act den Entwurf der Kommission an entscheidenden Stellen verbessert. Zugleich besteht aber weiterhin die Gefahr, dass durch eine zu starke Fokussierung auf Risiken die KI-Entwicklung in Europa ausgebremst wird. Künstliche Intelligenz ist eine Technologie, der eine entscheidende Bedeutung für unsere Zukunftsfähigkeit zukommt. Zwei Drittel der Unternehmen in Deutschland sehen in KI vor allem eine Chance. Damit kommt dem AI Act mit Blick auf die Wettbewerbsfähigkeit der europäischen Wirtschaft und unseren künftigen Wohlstand eine bedeutende Rolle zu.“
Weiter schreibt sie, Bitkom begrüße, dass der Rat die Definition eines KI-Systems nachgeschärft hat. Es dürften nur solche Systeme reguliert werden, „die durch KI-spezifische Eigenschaften neue Risiken mit sich bringen“. Allerdings bleibe die Risikoklassifizierung immer noch zu vage. Viele offene Fragen sieht der Verband auch hinsichtlich der geplanten Regulierung für Systeme mit vielen möglichen Einsatzzwecken, „General Purpose AI“ genannt, wozu Bild- und Spracherkennung gehört. Hier sollte der Fokus darauf liegen, die Zusammenarbeit zwischen allen an der Entwicklung Beteiligten zu fördern, um auf dem Weg die Risiken zu minimieren. Es dürfe auch nicht zu Widersprüchen mit bestehenden Vorgaben und neuen Unsicherheiten kommen. Denn bei Medizinprodukten oder Finanzen etwa ergänze die KI-Verordnung bereits die bestehende umfangreiche Regulierung.
Datenschutzverbände und NGOs wie Access Now oder Amnesty International sehen in dem geplanten AI Act aber eher die Risiken für die Bevölkerung und Migrant:innen. Denn obwohl flächendeckende Überwachung mit Gesichtserkennung wie in China ausgeschlossen sein soll, sehen die vorliegenden Pläne doch vor, dass Einzelstaaten oder ihre Sicherheitskräfte bei Gefahr in Verzug zu diesem Instrument greifen können. Daher haben 192 Einzelverbände und NGOs unter anderem auf Betreiben von Access Now und dem refugee law lab ein eigenes Positionspapier zu dem geplanten AI Act vorgelegt und dort Forderungen gestellt, welche Praktiken in dem KI-Gesetz ausgeschlossen werden sollten:
Die erste Forderung der NGO lautet: Kein unakzeptabler Einsatz von KI-Systemen, die gegen Migration gerichtet sind. Dazu zählen die Unterzeichner:innen mit Predictive Analytics ausgestattete Systeme, die Vorhersagen über Flüchtlingsbewegungen an den Grenzen liefern und Menschenleben gefährden könnten. Weiter gehören dazu automatische Profiling-Systeme und solche, die aufgrund biometrischer Daten kategorisieren können, sowie – der eigentliche Stein des Anstoßes für viele Kritiker – Remote Biometric Identification (RBI) an Grenzen sowie in und rund um Abschiebelager.
Außerdem sollte die Liste von Hoch-Risiko-Systemen auch auf Migration ausgeweitet werden und Annex beziehungsweise Anhang III entsprechend angepasst werden. Kritisch sehen die Unterzeichner:innen biometrische Identifikationssysteme wie Fingerabdruckscanner und KI-gestützte Überwachungssysteme an den Grenzen. Schließlich fordern die Unterzeichner:innen der Datenschutz- und Menschenrechtsverbände auch mehr Transparenz und ein „Fundamental Rights Impact Accessment“ (FRIA), gemeint ist, welche Auswirkungen hochrisikobehaftete Systeme auf die Grundrechte haben könnten.
Fazit: 94 Prozent der für eine KI-Studie 2022 von Deloitte befragten Führungskräfte weltweit stimmten darin überein, dass künstliche Intelligenz für ihr Unternehmen in Zukunft unverzichtbar sei.
Was Kritiker aber schon lange anmahnen, ist die Befürchtung, dass KI und besonders RBI missbraucht wird, um in der HR auszusieben, indem die Menschen zum Beispiel auf Anzeichen von latenten physischen und psychischen Krankheiten untersucht werden. Die Möglichkeiten dafür bestehen längst. Andererseits kann KI aber auch dazu beitragen, latente Talente zu entdecken. Das eine auszuschließen heißt nicht, das andere zu lassen. Natürlich braucht es Regulierung, aber ebenso wichtig ist es auch, die Chancen zu sehen und zu nutzen, wie sie der AI Act ebenso im Blick hat.
Quelle Titelbild: Adobe Stock / Alexander Limbach