Was ist KI-Transparenz?
Die Transparenz von Künstlicher Intelligenz (KI) gewinnt zunehmend an Bedeutung, da die Nutzung von KI-Systemen in verschiedenen Bereichen stetig zunimmt. In diesem Artikel wird untersucht, was unter KI-Transparenz und erklärbarer KI (XAI) zu verstehen ist und wie diese Konzepte implementiert werden können.
Die Definition der KI-Transparenz
Künstliche Intelligenz ist ein umfassender Begriff, der algorithmische Systeme beschreibt, die programmiert sind, um von Menschen definierte Ziele zu erreichen. Viele dieser Systeme werden als „Black Box“-Systeme bezeichnet, da die internen Abläufe des Modells entweder dem Nutzer nicht bekannt sind oder für Menschen nicht interpretierbar sind. In einem solchen Fall kann gesagt werden, dass das Modell an Transparenz fehlt.
KI-Transparenz ist ein Oberbegriff, der Konzepte wie erklärbare KI (XAI) und Interpretierbarkeit umfasst. Grundsätzlich umfasst sie drei Ebenen:
- Erklärbarkeit der technischen Komponenten – wie erklärbar die internen Mechanismen des Algorithmus sind
- Governance des Systems – ob es angemessene und ausreichende Prozesse und Dokumentationen der wichtigen Entscheidungen gibt
- Transparenz der Auswirkungen – ob die Fähigkeiten und der Zweck der Algorithmen offen und klar an relevante Interessengruppen kommuniziert werden
Erklärbarkeit der technischen Komponenten
Die Erklärbarkeit der technischen Komponenten des Systems bezieht sich darauf, in der Lage zu sein, zu erklären, was innerhalb eines KI-Systems passiert. Diese basiert auf vier Arten von Erklärungen: model-spezifisch, agnostisch, global und lokal.
- Model-spezifische Erklärbarkeit – ein Modell hat Erklärbarkeit, die in dessen Design und Entwicklung integriert ist
- Model-agnostische Erklärbarkeit – eine mathematische Technik wird auf die Ausgaben eines beliebigen Algorithmus angewendet, um eine Interpretation der Entscheidungsfaktoren des Modells bereitzustellen
- Globale Erklärbarkeit – das Verständnis des Verhaltens des Algorithmus auf hoher Ebene / Datensatz- / Bevölkerungsebene, was typischerweise von Forschern und Designern des Algorithmus durchgeführt wird
- Lokale Erklärbarkeit – das Verständnis des Verhaltens des Algorithmus auf niedriger Ebene / Teilmenge / individueller Ebene, typischerweise von denjenigen, die von einem Algorithmus angesprochen werden
Governance des Systems
Die zweite Ebene der Transparenz, Governance, umfasst die Etablierung und Implementierung von Protokollen zur Dokumentation von Entscheidungen, die über ein System von den frühen Entwicklungsphasen bis zur Bereitstellung getroffen wurden, sowie für alle Aktualisierungen, die am System vorgenommen werden.
Governance kann auch die Verantwortung für die Ergebnisse eines Systems beinhalten und diese innerhalb aller relevanten Verträge oder Dokumentationen festlegen. Verträge sollten beispielsweise spezifizieren, ob die Haftung für Schäden oder Verluste beim Anbieter oder Verkäufer eines Systems, der Einheit, die ein System bereitstellt, oder bei den spezifischen Designern und Entwicklern des Systems liegt. Dies fördert nicht nur eine größere Sorgfalt, wenn eine bestimmte Partei für ein System zur Verantwortung gezogen werden kann, sondern kann auch für Versicherungszwecke genutzt werden und helfen, Verluste, die aus der Bereitstellung oder Nutzung des Systems resultieren, zurückzufordern.
Transparenz der Auswirkungen
Die dritte Ebene der Transparenz betrifft die Kommunikation der Fähigkeiten und des Zwecks eines KI-Systems an relevante Interessengruppen, sowohl an diejenigen, die direkt als auch an diejenigen, die indirekt betroffen sind. Die Kommunikation sollte zeitnah erfolgen und klar, genau und auffällig sein.
Um die Auswirkungen von Systemen transparenter zu gestalten, sollten Informationen über die Art der Datenpunkte, die der Algorithmus verwenden wird, und die Herkunft der Daten kommuniziert werden. Die Kommunikation sollte auch den Nutzern mitteilen, dass sie mit einem KI-System interagieren, in welcher Form die Ausgaben des Systems vorliegen und wie die Ausgaben verwendet werden. Besonders wenn ein System als voreingenommen gilt, sollte auch kommuniziert werden, wie das System für bestimmte Kategorien funktioniert und ob bestimmte Gruppen negative Ergebnisse zu erwarten haben, wenn sie mit dem System interagieren.
Warum benötigen wir KI-Transparenz?
Ein Hauptmotiv für KI-Transparenz und -Erklärbarkeit besteht darin, dass sie das Vertrauen in KI-Systeme stärken können, was den Nutzern und anderen Interessengruppen mehr Vertrauen gibt, dass das System angemessen eingesetzt wird. Zu wissen, welche Entscheidungen ein System trifft und wie es diese trifft, kann den Einzelnen auch mehr Handlungsspielraum über ihre Entscheidungen geben, sodass sie informierte Zustimmung geben können, wenn sie mit einem System interagieren.
Darüber hinaus kann Transparenz auch mehrere geschäftliche Vorteile mit sich bringen:
- Erstens können durch die Katalogisierung aller Systeme, die in einem Unternehmen verwendet werden, Schritte unternommen werden, um sicherzustellen, dass Algorithmen effizient eingesetzt werden und dass einfache Prozesse nicht durch die Verwendung komplexer Algorithmen für geringfügige Aufgaben überkompliziert werden.
- Zweitens, wenn rechtliche Schritte gegen eine Organisation eingeleitet werden, erleichtert die Transparenz ihrer KI-Systeme eine klare Erklärung, wie ihr System funktioniert und warum es möglicherweise zu bestimmten Entscheidungen gekommen ist. Dies kann helfen, Organisationen von Vorwürfen der Fahrlässigkeit oder böswilligen Absicht zu entlasten, die aus der negativen Anwendung eines automatisierten Systems resultieren, das Problem schnell zu lösen und sicherzustellen, dass angemessene Maßnahmen ergriffen werden, wenn dies notwendig ist.
Ein praktisches Beispiel dafür ist die Klage, die gegen Apple wegen ihrer Apple Card eingereicht wurde, die Berichten zufolge einem Mann im Vergleich zu seiner Frau, die über eine höhere Kreditwürdigkeit verfügte, eine viel höhere Kreditlinie gewährte. Goldman Sachs, der Anbieter der Karte, konnte jedoch rechtfertigen, warum das Modell zu dieser Entscheidung gelangte, was bedeutete, dass sie von illegalen Aktivitäten freigesprochen wurden und die Bedeutung von erklärbarer KI unterstrich.
Das übergeordnete Ziel der KI-Transparenz besteht letztendlich darin, ein Ökosystem des Vertrauens im Umgang mit KI zu etablieren, insbesondere unter Bürgern oder Nutzern von Systemen, und insbesondere in Gemeinschaften, die am stärksten gefährdet sind, durch KI-Systeme geschädigt zu werden.