roboter hand, menschliche Hand, künstliche Intelligenz, vertrauen

Studie zeigt: KI-Managementsysteme sind vertrauensfördernd

Einer Studie des Fraunhofer IAIS zufolge können KI-Managementsysteme auf zweierlei Weise die Vertrauenswürdigkeit von künstlicher Intelligenz fördern. Die eine Seite ist die vertrauensvolle Entwicklung und Nutzung der Technologien, die andere das Vertrauen der User.

Viele Menschen begegnen künstlicher Intelligenz (KI) mit einer Mischung aus Angst, Misstrauen und Häme, wenn sie mal eben doch nicht so schlau und überlegen ist. Will man aber dem Erfolgsautor Frank Schätzing (Der Schwarm) und seinem neuen Sachbuch „Was, wenn wir einfach mal die Welt retten?“ glauben, kann KI auch dazu beitragen, Auswege aus der Klimakrise zu finden.

Viele Unternehmen beginnen erst, sich mit KI und Machine Learning zu beschäftigen und sehen darin eine Chance, sind aber auch verunsichert, was die möglichen Risiken und Grenzen der KI angeht. Und daher suchen sie gleichermaßen vertrauenswürdigen und vertrauensschaffenden Lösungen für den Einsatz der KI-Technologien. Sicherheit ist dabei ein ganz wichtiger Aspekt, im besten Fall sollen die intelligenten Systeme auch so entwickelt sein, dass sie weltweit einsetzbar sind, wie Projektleiter Dr. habil. Michael Mock vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS einer Studie vorausschickt. Unter dem Titel „Management System Support for Trustworthy Artificial Intelligence“ (Managementsystem-Unterstützung für vertrauenswürdige KI) beschreibt die englischsprachige Studie, dass KI-Managementsysteme nicht nur vertrauensfördernd, sondern auch vertrauensschaffend sein können.

Neue ISO/IEC-Norm gibt Handlungsempfehlungen

Mock zufolge arbeiten verschiedene Organisationen derzeit als Orientierungshilfe für Entwickler und Anwenderunternehmen an behördlichen Richtlinien und internationalen Standards, um den Anforderungen an eine vertrauenswürdige, sichere KI-Nutzung zu entsprechen. Das zu leisten, sei unter anderem Aufgabe von KI-Managementsystemen. Einer der Standards, der aktuell im Entstehen ist, nennt sich ganz lapidar AI Management Systems, kurz AIMS, und ist ein Gemeinschaftsprojekt der Internationalen Normungsorganisation (besser bekannt als ISO) und der Internationalen Elektrotechnischen Kommission (IEC).

ki Schriftzeichen, Vernetzung, künstliche Intelligenz
Sichere KI-Nutzung ist unter anderem Aufgabe von KI-Managementsystemen. Bild: Adobe Stock: RS-Studios

Die besagte Fraunhofer-Studie ist auf über 60 Seiten nachgegangen, ob und wie Managementsysteme die Gestaltung und Nutzung von KI vertrauenswürdiger gestalten können. Darin haben die Wissenschaftler:innen des Instituts unter der Projektleitung von Dr. Mock auch die ISO/IEC WD 42001 für AIMS mit den bestehenden KI-Richtlinien der Europäischen Kommission verglichen. Die folgt mit ihren Anforderungen und Empfehlungen für eine vertrauenswürdige KI denen der von ihr beauftragten High-Level-Expert Group on AI (HLEG) und denen des deutschen Bundesamtes für Sicherheit in der Informationstechnik (BSI). ISO/IEC 42001 gibt laut dem Projekt „ExamAI – KI Testing & Auditing“ unter der Leitung der Gesellschaft für Informatik e.V.  Handlungsempfehlungen für die Gestaltung, Umsetzung und Wartung von KI-basierten Managementsystemen in Organisationen.

Zertifizierung stärkt Vertrauen und wird immer wichtiger

Wie gesagt, kommt die Studie des Fraunhofer IAIS zu dem Schluss, dass KI-Managementsysteme vertrauenswürdige künstliche Intelligenz auf zweierlei Weise fördern kann. Einmal helfen die Systeme Unternehmen, „geeignete Strategien und Prozesse für die vertrauenswürdige Entwicklung und Nutzung von KI-Technologien zu definieren“, so Mock. Auf der anderen Seite könne so ein Managementsystem auch ein wichtiger Baustein sein, um das Vertrauen in die KI-Systeme zu stärken, das Vertrauen der Nutzer:innen ebenso wie das von Anwenderunternehmen.

„Selbst bei Vorhandensein mehrerer Interessensgruppen und komplexer Lieferketten erleichtert der Einsatz von KI-Managementsystemen die Einhaltung von Vorschriften über den gesamten Lebenszyklus von KI-Systemen hinweg“, zitiert Bigdata Insider den Co-Autor und Studienleiter Mock.

Zertifikate wie ISO/IEC WD 42001 und ISO 9001 als Norm für Qualitätsmanagementsysteme sind so wichtig, um die Vertrauenswürdigkeit von KI und anderen Technologien zu stärken.  DIN (die Organisation hinter der Deutschen Industrienorm) weist im Zusammenhang mit KI unter anderem auf DIN SPEC 13288 hin, die in Form eines Leitfadens erhöhte KI-spezifische Qualitätsanforderungen und Vorgaben hinsichtlich der Anwendung medizinischer Bilderkennungssysteme gewährleisten soll. Eine „Normungsroadmap künstliche Intelligenz“ ist mit DIN.ONE in Zusammenarbeit mit dem Bundesministerium für Wirtschaft und Energie (BMWi) auch schon in Vorbereitung.

Bildquelle Titelbild: Adobe Stock / Alexander Limbach

Diesen Beitrag teilen:

Weitere Beiträge

Mit den richtigen Strategien im IT-Hardware und Software Bereich für mehr Nachhaltigkeit – so unterstützt Axians eWaste den deutschen Mittelstand

Fast ein Viertel aller Unternehmen in Deutschland verfügen über keine Nachhaltigkeitsstrategie. Dementsprechend ... »

19.04.2024 | Sandra Kürpick

Axians auf der Hannover Messe 2024: Digitale Vernetzung von Operational Technology und IT im Fokus

Axians präsentiert auf der Hannover Messe 2024 sein Engagement für die nahtlose Integration von Operational ... »

16.04.2024 | Redaktion Digital Chiefs