Was ist Transparenz? – Ethik der KI
Transparenz kann auf verschiedene Weise definiert werden. Es gibt zahlreiche verwandte Konzepte, die manchmal als Synonyme für Transparenz verwendet werden – einschließlich „Erklärbarkeit“ (KI-Forschung in diesem Bereich ist als „XAI“ bekannt), „Interpretierbarkeit“, „Verständlichkeit“ und „Black Box“.
Transparenz ist grob gesagt eine Eigenschaft einer Anwendung. Es geht darum, wie viel man über die inneren Abläufe eines Systems „theoretisch“ verstehen kann. Es kann auch bedeuten, Erklärungen für algorithmische Modelle und Entscheidungen bereitzustellen, die für den Benutzer nachvollziehbar sind. Dies betrifft die öffentliche Wahrnehmung und das Verständnis dafür, wie KI funktioniert. Darüber hinaus kann Transparenz auch als breiteres sozio-technisches und normatives Ideal der „Offenheit“ betrachtet werden.
Transparenz als Eigenschaft eines Systems
Als Eigenschaft eines Systems befasst sich Transparenz damit, wie ein Modell intern funktioniert oder arbeitet. Transparenz wird weiter unterteilt in „Simulierbarkeit“ (Verständnis der Funktionsweise des Modells), „Decomposability“ (Verständnis der einzelnen Komponenten) und algorithmische Transparenz (Sichtbarkeit der Algorithmen).
Was macht ein System zu einer „Black Box“?
Komplexität. In zeitgenössischen KI-Systemen wird der Betrieb eines neuronalen Netzwerks in Tausenden oder sogar Millionen von numerischen Koeffizienten kodiert. Typischerweise lernt das System deren Werte in der Trainingsphase. Da der Betrieb des neuronalen Netzwerks von den komplizierten Wechselwirkungen zwischen diesen Werten abhängt, ist es praktisch unmöglich zu verstehen, wie das Netzwerk funktioniert, selbst wenn alle Parameter bekannt sind.
Schwierigkeit bei der Entwicklung erklärbarer Lösungen. Selbst wenn die verwendeten KI-Modelle ein gewisses Maß an Erklärbarkeit unterstützen, ist zusätzliche Entwicklung erforderlich, um Erklärbarkeit in das System einzubauen. Es kann schwierig sein, eine Benutzererfahrung für sorgfältige, aber leicht verständliche Erklärungen für die Benutzer zu schaffen.
Risikoüberlegungen. Viele KI-Algorithmen können überlistet werden, wenn ein Angreifer sorgfältig einen Input entwirft, der das System zum Fehlverhalten bringt. In einem hochtransparenten System kann es einfacher sein, das System zu manipulieren, um seltsame oder unerwünschte Ergebnisse zu erzielen. Daher werden Systeme manchmal absichtlich als Black Boxes entworfen.
Angesichts der Tatsache, dass viele der effizientesten, aktuellen Deep-Learning-Modelle Black-Box-Modelle sind (fast per Definition), scheinen Forscher anzunehmen, dass es höchst unwahrscheinlich ist, dass wir sie vollständig transparent entwickeln können. Aus diesem Grund konzentriert sich die Diskussion darauf, den „ausreichenden Grad an Transparenz“ zu finden. Würde es ausreichen, wenn Algorithmen den Menschen offenlegen, wie sie zu ihren Entscheidungen gekommen sind und die kleinste Änderung anbieten, „die vorgenommen werden kann, um ein wünschenswertes Ergebnis zu erzielen“?
Die Erklärung sollte beispielsweise mitteilen, was der maximal genehmigte Gehaltsbetrag ist (Input) und wie eine Verringerung des Betrags die getroffenen Entscheidungen beeinflussen wird (Manipulation des Inputs). Aber das Problem ist, dass das Recht zu wissen auch auf Situationen zutrifft, in denen das System Fehler macht. In diesem Fall kann es notwendig sein, eine Autopsie des Algorithmus durchzuführen und die Faktoren zu identifizieren, die dazu geführt haben, dass das System Fehler gemacht hat.
Transparenz als Verständlichkeit
Die Verständlichkeit – oder Verständlichkeit – eines Algorithmus erfordert, dass erklärt wird, wie eine Entscheidung von einem KI-Modell getroffen wurde, in einer Weise, die für die von dem Modell betroffenen Personen ausreichend verständlich ist. Man sollte ein konkretes Gefühl dafür haben, wie oder warum eine bestimmte Entscheidung auf der Grundlage der Eingaben getroffen wurde.
Es ist jedoch notorisch schwierig, algorithmisch abgeleitete Konzepte in für Menschen verständliche Konzepte zu übersetzen. In einigen Ländern haben Gesetzgeber diskutiert, ob öffentliche Stellen die Algorithmen, die sie in automatisierten Entscheidungsprozessen verwenden, in Form von Programmiercodes veröffentlichen sollten. Die meisten Menschen wissen jedoch nicht, wie sie Programmiercodes verstehen können. Es ist daher schwer zu erkennen, wie durch die Veröffentlichung von Codes die Transparenz erhöht wird.
Heutzutage entwickeln kognitive und Informatikwissenschaftler menschlich interpretierbare Beschreibungen dafür, wie Anwendungen sich verhalten und warum. Ansätze umfassen beispielsweise die Entwicklung von Datenvisualisierungstools, interaktiven Schnittstellen, verbalen Erklärungen oder Meta-Ebenenbeschreibungen der Merkmale von Modellen. Diese Werkzeuge können äußerst hilfreich sein, um KI-Anwendungen zugänglicher zu machen. Es gibt jedoch noch viel zu tun.
Wie können Modelle transparenter gemacht werden?
Das Black-Box-Problem der künstlichen Intelligenz ist nicht neu. Die Bereitstellung von Transparenz für maschinelle Lernmodelle ist ein aktives Forschungsfeld. Grob gesagt, gibt es fünf Hauptansätze:
- Einfachere Modelle verwenden. Dies opfert jedoch oft die Genauigkeit für die Erklärbarkeit.
- Einfachere und komplexere Modelle kombinieren. Während das komplexe Modell dem System ermöglicht, komplexere Berechnungen durchzuführen, kann das einfachere Modell zur Bereitstellung von Transparenz verwendet werden.
- Eingaben ändern, um relevante Abhängigkeiten zwischen Eingaben und Ausgaben zu verfolgen. Wenn eine Manipulation von Eingaben die Gesamtergebnisse des Modells verändert, könnten diese Eingaben eine Rolle bei der Klassifikation spielen.
- Modelle für den Benutzer entwerfen. Dies erfordert die Verwendung von kognitiv und psychologisch effizienten Methoden und Werkzeugen zur Visualisierung der Modellzustände oder zur Steuerung der Aufmerksamkeit.
- Neueste Forschung verfolgen. Es wird viel Forschung zu verschiedenen Aspekten der erklärbaren KI durchgeführt – einschließlich der sozio-kognitiven Dimensionen – und neue Techniken werden entwickelt.
Die Herausforderung, die Transparenz in KI-Systemen zu erhöhen, bleibt bestehen und erfordert kontinuierliche Anstrengungen sowohl von der Forschung als auch von der Industrie.