Wie man Verantwortung in Künstlicher Intelligenz integriert
Bei der Verwaltung von Künstlicher Intelligenz (KI) gibt es zahlreiche Prinzipien und Konzepte, die eine faire und verantwortungsvolle Nutzung unterstützen sollen. Dennoch stehen Organisationen und deren Führungskräfte oft vor der Herausforderung, wie sie KI-Systeme verantwortungsvoll verwalten und implementieren können.
Aus diesem Grund wurde ein Rahmenwerk entwickelt, um die Verantwortung und den verantwortungsvollen Einsatz von KI-Systemen zu gewährleisten. Dieses Rahmenwerk definiert die grundlegenden Bedingungen für die Verantwortung über den gesamten Lebenszyklus einer KI — von der Gestaltung und Entwicklung bis hin zur Implementierung und Überwachung.
Verstehen des gesamten KI-Lebenszyklus
Zu oft werden Aufsichtfragen über ein KI-System nach dessen Erstellung und bereits Implementierung gestellt. Dies ist jedoch nicht ausreichend. Bewertungen sollten in jedem Stadium des Lebenszyklus durchgeführt werden, um systemweite Probleme zu identifizieren, die bei engen „Punkt-in-Zeit“-Bewertungen übersehen werden könnten.
Die wichtigen Phasen des Lebenszyklus eines KI-Systems umfassen:
- Gestaltung: Festlegung der Ziele und Anforderungen des Systems.
- Entwicklung: Definition technischer Anforderungen und Validierung des Systems.
- Implementierung: Überprüfung der Kompatibilität mit anderen Systemen und Evaluierung der Benutzererfahrung.
- Überwachung: Kontinuierliche Bewertung der Ergebnisse und Auswirkungen des Systems.
Die gesamte Gemeinschaft der Stakeholder einbeziehen
Bei allen Phasen des KI-Lebenszyklus ist es wichtig, die richtigen Stakeholder zusammenzubringen. Neben technischen Experten sind auch Stakeholder erforderlich, die über die gesellschaftlichen Auswirkungen eines bestimmten KI-Systems sprechen können. Dazu gehören:
- Politik- und Rechtsexperten
- Fachleute für gesellschaftliche Belange
- Benutzer des Systems
- Personen, die von dem KI-System betroffen sind
Alle Stakeholder spielen eine wesentliche Rolle dabei, ethische, rechtliche, wirtschaftliche oder gesellschaftliche Bedenken zu identifizieren und zu mindern.
Vier Dimensionen der KI-Verantwortung
Bei der Fokussierung auf Verantwortung über den gesamten Lebenszyklus von KI-Systemen sollten vier Dimensionen berücksichtigt werden:
- Governance: Eine gesunde Governance-Struktur ist entscheidend, um Verantwortlichkeit zu gewährleisten.
- Daten: Dokumentation der Datenverwendung ist essenziell, um Probleme wie Verzerrungen zu vermeiden.
- Leistungsziele: Klare Definition von Leistungszielen und Metriken ist notwendig, um den Erfolg des Systems zu messen.
- Überwachungspläne: Kontinuierliche Überwachung ist erforderlich, um sicherzustellen, dass das System die erwarteten Ergebnisse liefert.
Wie ein Prüfer denken
Das Rahmenwerk ist in bestehenden Prüfungs- und Kontrollstandards verankert, sodass die Prüfpraktiken und Fragen von Organisationen genutzt werden können, die bereits über Ressourcen zur Verantwortlichkeit und Aufsicht verfügen. Das Rahmenwerk ist in einfacher Sprache verfasst, um es auch für nicht-technische Benutzer anwendbar zu machen.
Im Hinblick auf den Aufbau von Verantwortung für KI ist es ratsam, wie ein Prüfer zu denken und spezifische Fragen zu stellen, um die Systeme zu bewerten.