Verstehen des Rechts auf Erklärung und automatisierte Entscheidungsfindung im Rahmen der DSGVO und des KI-Gesetzes in Europa
Automatisierte Entscheidungsfindung (ADM) Systeme werden eingesetzt, um menschliche Entscheidungen entweder vollständig zu ersetzen oder zu unterstützen, je nach Art des Systems und dessen Verwendung. Ziel ist es, die Genauigkeit, Effizienz, Konsistenz und Objektivität von Entscheidungen zu verbessern, die zuvor ausschließlich von Menschen getroffen wurden. Beispiele hierfür sind automatisierte Rekrutierungssysteme, Systeme zur Gesundheits-Triage, Online-Inhaltsmoderation und prädiktive Polizeiarbeit.
Öffentliche Kontrolle und Transparenz
In liberalen Demokratien haben die Menschen sich daran gewöhnt, dass bedeutende Entscheidungen in Bereichen wie Bildung, Sozialleistungen, Beschäftigung, Gesundheitsversorgung und Justiz standardisierten Verfahren und Beschwerdeprozessen unterliegen, die der öffentlichen Kontrolle offenstehen. Dies spiegelt ein grundlegendes Verständnis wider, dass menschliche Entscheidungsträger nicht unfehlbar oder immer fair sind, aber dass es möglich ist, die Auswirkungen menschlicher Fehler durch festgelegte Standards zu begrenzen, an denen die Fairness von Entscheidungen bewertet werden kann.
Schutzmaßnahmen der DSGVO und des KI-Gesetzes
Die relevanten Bestimmungen in der Allgemeinen Datenschutzverordnung (DSGVO) Europas und im KI-Gesetz sollen die substanzielle und prozedurale Fairness von automatisierten Entscheidungen gewährleisten. Im Großen und Ganzen umfasst die substanzielle Fairness Überlegungen wie distributive Gerechtigkeit, Nichtdiskriminierung, Proportionalität, Genauigkeit und Zuverlässigkeit, während die prozedurale Fairness (mindestens) Transparenz, Rechtsstaatlichkeit, Konsistenz, menschliche Aufsicht und das Recht auf eine Erklärung erfordert.
Jüngste Beispiele für KI-Systeme, die diese Anforderungen nicht erfüllten, sind Systeme zur Betrugsbekämpfung in Amsterdam und dem Vereinigten Königreich, Familien, die fälschlicherweise in Japan für Kindesmissbrauchsuntersuchungen markiert wurden, und einkommensschwache Bewohner in Telangana, Indien, die von Lebensmittelhilfen ausgeschlossen wurden.
Recht auf Erklärung
In der DSGVO gilt das Recht auf eine Erklärung für Entscheidungen, die ausschließlich auf automatisierter Verarbeitung basieren und rechtliche oder ähnlich signifikante Auswirkungen auf eine natürliche Person haben (Art. 22). Dieses Recht auf eine Erklärung wird in den Artikeln 13-15 detailliert beschrieben, die die Bereitstellung von „bedeutungsvoller Information über die Logik, die dahinter steht, sowie über die Bedeutung und die voraussichtlichen Folgen einer solchen Verarbeitung“ verlangen.
Im KI-Gesetz (Art. 86) bezieht sich die relevante Formulierung auf das „Recht, vom Betreiber klare und bedeutungsvolle Erklärungen über die Rolle des KI-Systems im Entscheidungsprozess und die Hauptbestandteile der getroffenen Entscheidung zu erhalten.“
Erklärbare KI (XAI)
Der Bereich der erklärbaren KI (XAI) konzentriert sich auf Möglichkeiten, sicherzustellen, dass die Ausgaben von KI-Systemen, z. B. automatisierte Entscheidungen, den betroffenen Personen erklärt und verständlich gemacht werden können. Es gibt zwei breite Arten von Methoden, um dies zu erreichen: intrinsische und post-hoc.
Intrinsische Methoden sind möglich, wenn das KI-Modell einfach genug ist, sodass die Beziehung zwischen Eingaben und Ausgaben interpretierbar ist. Beispielsweise kann bei einem Entscheidungsbaum-Modell, das für die Kreditbewertung in Darlehensanträgen verwendet wird, jeder Schritt des Modells von den Eingaben (z. B. Einkommen, Beschäftigungsgeschichte) bis hin zur Ausgabe (ob der Antragsteller für das angeforderte Darlehen berechtigt ist) nachverfolgt werden.
Im Gegensatz dazu werden post-hoc-Methoden verwendet, wenn das Modell zu komplex ist, um seinen Denkprozess von den Eingaben zu den Ausgaben nachzuvollziehen. Da komplexe KI-Modelle oft nicht interpretierbar sind, werden post-hoc-Methoden wie Shapley-Werte und LIME eingesetzt, um Einblicke in das Denken eines Modells zu geben, ohne auf seine interne Struktur zugreifen zu können. Diese Einblicke sind jedoch nur Annäherungen an den tatsächlichen Denkprozess des Modells.
Die ethischen Herausforderungen der Vorhersage
Vorhersagen über ‚Lebensereignisse‘ sind sowohl unzuverlässig als auch ethisch problematisch. Das bedeutet, dass bei der Vorhersage von Ereignissen wie Scheidungen oder zukünftigen Einkommen die Vorhersage selbst einen Einfluss auf das System hat, das wir versuchen, vorherzusagen. Daher sollten automatisierte Entscheidungen, die auf Vorhersagen in Bereichen beruhen, in denen menschliche Entscheidungen eine Rolle spielen, vermieden werden.
Fazit
Die Bestimmungen, die den Schutz von ADM gewährleisten sollen, sollten vollständig automatisierte Entscheidungen auf interpretierbare Modelle beschränken, deren Ausgaben eine klare Erklärung der Entscheidung enthalten sollten. Entscheidungen, die Umstände betreffen, in denen menschliche Entscheidungsfreiheit eine Rolle spielt, sollten nicht automatisiert werden. Andernfalls wird die Fairness von Entscheidungen, die erhebliche Auswirkungen auf die Bürger haben, untergraben.