Algorithmische Audits: Ein praktischer Leitfaden für Fairness, Transparenz und Verantwortung in KI

Da künstliche Intelligenzsysteme unser Leben zunehmend prägen, sind Bedenken hinsichtlich Fairness, Transparenz und Verantwortlichkeit von größter Bedeutung. Ein wichtiges Instrument zur Bewältigung dieser Bedenken ist die algorithmische Prüfung (Algorithmic Auditing). Doch was genau sollten diese Audits beinhalten und wie sollten sie durchgeführt werden? Dieses Papier untersucht die Landschaft der algorithmischen Prüfung. Es definiert einen robusten Ansatz, der sich auf die praktischen Schritte und wesentlichen Komponenten konzentriert, die für eine effektive Bewertung erforderlich sind, und betont gleichzeitig die entscheidende Rolle einer gründlichen Berichterstattung, um sicherzustellen, dass diese Systeme der Gesellschaft nutzen und nicht schaden.

Was ist der angemessene Umfang für algorithmische Audits?

Ein End-to-End, sozio-technisches algorithmisches Audit (E2EST/AA) bietet den umfassendsten Ansatz. Es untersucht ein KI-System in seinem tatsächlichen operativen Kontext und betrachtet die spezifischen verwendeten Daten und die betroffenen Datensubjekte.

Dieser Ansatz ist entscheidend, da KI-Systeme in komplexen sozialen und organisatorischen Rahmenbedingungen operieren und Daten verwenden, die von Einzelpersonen und Gesellschaften generiert werden. Die Vernachlässigung dieser sozio-technischen Aspekte durch die ausschließliche Konzentration auf technische Probleme würde zu unvollständigen und potenziell schädlichen Bewertungen führen.

Welche Systeme sollten auditiert werden?

Der E2EST/AA-Prozess ist für algorithmische Systeme konzipiert, die in folgenden Bereichen eingesetzt werden:

  • Ranking
  • Bilderkennung
  • Natürliche Sprachverarbeitung

Er ist auf Systeme anwendbar, die Entscheidungen über Einzelpersonen oder Gruppen unter Verwendung bekannter Datenquellen treffen, unabhängig davon, ob sie auf maschinellem Lernen oder traditionelleren Computerverfahren basieren. Dies umfasst die Mehrheit der Systeme, die sowohl im öffentlichen als auch im privaten Sektor eingesetzt werden für:

  • Ressourcenzuweisung
  • Kategorisierung
  • Identifizierung/Verifizierung

…in Bereichen wie Gesundheit, Bildung, Sicherheit und Finanzen. Zu den spezifischen Anwendungen gehören Betrugserkennung, Einstellungsprozesse, Betriebsmanagement und Vorhersage-/Risikobewertungswerkzeuge.

Über die Bias-Bewertung hinaus

Während die Bias-Bewertung im Mittelpunkt steht, erweitert E2EST/AA seine Reichweite. Es untersucht:

  • Breitere soziale Auswirkungen
  • Erwünschtheit
  • Einbeziehung von Endbenutzern in die Entwurfsphase
  • Verfügbarkeit von Rechtsbehelfsmechanismen für Betroffene

Um ein algorithmisches Audit zu „bestehen“, muss ein System Fragen der Verhältnismäßigkeit der Auswirkungen, der Beteiligung der Stakeholder und der Ressourcenzuweisung berücksichtigen.

Einschränkungen

Eine Kernbeschränkung des algorithmischen Audits besteht darin, dass es bestehende Systemimplementierungen bewertet. Es geht nicht auf die grundlegende Frage ein, ob ein System überhaupt existieren sollte.

Wie sollte der Prozess eines End-to-End, soziotechnischen algorithmischen Audits durchgeführt werden?

Ein End-to-End, soziotechnisches algorithmisches Audit (E2EST/AA) ist ein iterativer Prozess, der eine enge Zusammenarbeit zwischen Auditoren und dem KI-Entwicklungsteam beinhaltet. Es ist darauf ausgelegt, KI-Systeme innerhalb ihrer realen Implementierung, Verarbeitungstätigkeiten und ihres betrieblichen Kontexts zu untersuchen, wobei der Schwerpunkt auf den spezifischen verwendeten Daten und den betroffenen Datensubjekten liegt.

Hauptschritte im E2EST/AA-Prozess

Hier ist eine Aufschlüsselung der Kernkomponenten, die bei der Durchführung eines umfassenden Audits beteiligt sind:

  • Modellkarten-Erstellung: Auditoren beginnen mit dem Sammeln und Überprüfen detaillierter Informationen durch eine „Modellkarte“. Dieses Dokument fasst wichtige Details bezüglich des Trainings, der Tests, der Merkmale des KI-Modells und der Beweggründe für den gewählten Datensatz zusammen. Es dient auch als zentrales Repository für wesentliche Dokumentationen, einschließlich DPIAs (Datenschutz-Folgenabschätzungen), Ethikgenehmigungen und Datenfreigabevereinbarungen.
  • Systemkartenerstellung: Als nächstes kontextualisiert eine Systemkarte den Algorithmus und veranschaulicht die Beziehungen und Interaktionen zwischen dem algorithmischen Modell, dem technischen System und dem übergreifenden Entscheidungsprozess. Der Auditor entwirft eine erste Version davon, und das Entwicklungsteam validiert und vervollständigt sie. Im Rahmen einer Untersuchung, die von einer Aufsichtsbehörde durchgeführt wird, sollte die Existenz folgender Punkte festgehalten werden:
    • Inventar der geprüften KI-basierten Komponente [Artikel 5.2]
    • Identifizierung von Verantwortlichkeiten [Kapitel IV]
    • Transparenz [Artikel 5.1.a und Kapitel III – Abschnitt 1, Artikel 13.2.f und 14.2.g von Kapitel III – Abschnitt 2]
    • Identifizierung der beabsichtigten Zwecke und Verwendungen [Artikel 5.1.b]
    • Definition des beabsichtigten Kontexts der KI-basierten Komponente [Artikel 24.1]
    • Analyse der Verhältnismäßigkeit und Notwendigkeit [Artikel 35.7.b]
    • Definition der potenziellen Datenempfänger [Kapitel III; insbesondere Artikel 13.1.e und 14.1.e]
    • Begrenzung der Datenspeicherung [Artikel 5.1.e, Ausnahmen Artikel 89.1]
    • Analyse der Kategorien von Datensubjekten [Artikel 35.9]
    • Identifizierung der Entwicklungspolitik der KI-basierten Komponente [Artikel 24.1]
    • Einbeziehung des Datenschutzbeauftragten (DSB) [Abschnitt 4 von Kapitel IV]
    • Anpassung grundlegender theoretischer Modelle [Artikel 5.1.a]
    • Angemessenheit des methodischen Rahmens [Artikel 5.1.a]
    • Identifizierung der grundlegenden Architektur der KI-basierten Komponente [Artikel 5.2]
  • Bias-Identifizierung: Ein kritischer Schritt ist die Identifizierung potenzieller Momente und Quellen von Bias während des gesamten Lebenszyklus des KI-Systems – von der Vorverarbeitung über die In-Processing (Inferenz) bis zur Nachverarbeitung (Bereitstellung). Auditoren müssen Folgendes dokumentieren:
    • Datenqualitätssicherung [Artikel 5.1]
    • Definition des Ursprungs der Datenquellen [Artikel 5 und 9]
    • Vorverarbeitung personenbezogener Daten [Artikel 5]
    • Bias-Kontrolle [Artikel 5.1.d]
  • Bias-Tests: Basierend auf gesammelter Dokumentation und Zugriff auf das Entwicklungsteam und relevante Daten entwirft und implementiert der Auditor verschiedene Tests, um Verzerrungen zu erkennen, die sich negativ auf Einzelpersonen, Gruppen oder die gesamte Systemfunktionalität auswirken könnten. Diese Tests beinhalten oft statistische Analysen, die Auswahl geeigneter Fairness-Metriken und potenziell die Kontaktaufnahme mit Endbenutzern oder betroffenen Gemeinschaften.
    • Anpassung des Verifikations- und Validierungsprozesses der KI-basierten Komponente [Artikel 5.1.b und 5.2]
    • Verifikation und Validierung der KI-basierten Komponente [Artikel 5.1.a und 5.1.b]
    • Leistung [Artikel 5.1.d]
    • Konsistenz [Artikel 5.1.d]
    • Stabilität und Robustheit [Artikel 5.2]
    • Rückverfolgbarkeit [Artikel 5 und 22]
    • Sicherheit [Artikel 5.1.f, 25 und 32]
  • Adversarisches Audit (Optional): Für risikoreiche Systeme und insbesondere solche, die unüberwachtes maschinelles Lernen verwenden, ist ein adversarisches Audit sehr empfehlenswert. Dies beinhaltet die Simulation realer Bedingungen und potenzieller Angriffe, um Schwachstellen und versteckte Verzerrungen aufzudecken, die bei Standardtests möglicherweise nicht erkennbar sind.

Der Auditbericht: Sicherstellung von Transparenz und Rechenschaftspflicht

Der Höhepunkt des Auditprozesses ist die Erstellung umfassender Berichte. Es sollten drei Haupttypen von Auditberichten erstellt werden:

  • Interner E2EST/AA-Bericht: Auditoren verfassen diesen Bericht, um den befolgten Prozess, die identifizierten Probleme und die angewandten oder anwendbaren Maßnahmen zur Risikominderung zu erfassen.
  • Öffentlicher E2EST/AA-Bericht: Endgültige Version des Auditprozesses, in der Auditoren das System, die Auditmethodik, die implementierten Maßnahmen zur Risikominderung und Verbesserung sowie weitere Empfehlungen beschreiben, falls vorhanden.
  • Regelmäßige E2EST/AA-Berichte: Diese Follow-up-Auditberichte müssen Garantien dafür bieten, dass die Systementwickler weiterhin auf Verzerrungen testen, Maßnahmen zur Risikominderung implementieren und Auswirkungen kontrollieren.

german

Welche Erkenntnisse lassen sich aus der Untersuchung der Momente und Quellen von Verzerrungen in einem KI-System gewinnen?

Die Analyse von Verzerrungen in KI-Systemen geht über die einfache Identifizierung geschützter Gruppen und die Berechnung ungleicher Behandlung hinaus. Ein umfassender Ansatz, wie das End-to-End Socio-Technical Algorithmic Audit (E2EST/AA), erfordert die Untersuchung von Momenten und Quellen von Verzerrungen während des gesamten KI-Lebenszyklus, um unfaire Ergebnisse und Verstöße gegen Vorschriften zu verhindern.

Verständnis der Momente der Verzerrung

Das E2EST/AA identifiziert Schlüsselmomente im KI-Lebenszyklus, in denen sich Verzerrungen einschleichen können:

  • Vorverarbeitung: Von der anfänglichen Datenerfassung („Welt → Daten“) bis zu ihrer Umwandlung in nutzbare Variablen („Stichprobe → Variablen + Werte“) können Verzerrungen daher rühren, wie Daten gesammelt werden, wer repräsentiert wird und wie Informationen strukturiert sind.
  • In-Processing (Modellinferenz): Hier können bereits vorhandene Verzerrungen verstärkt werden, wenn die KI Muster aus den Daten lernt („Variablen + Werte → Muster“) und Vorhersagen trifft („Muster → Vorhersagen“).
  • Nachverarbeitung (Modellbereitstellung): Verzerrungen wirken sich aus, wenn Vorhersagen zu Entscheidungen werden („Vorhersagen → Entscheidungen“) und diese Entscheidungen die reale Welt beeinflussen („Entscheidungen → Welt“).

Identifizierung von Quellen für Verzerrungen

Die genaue Bestimmung der Ursachen für Verzerrungen ist entscheidend für eine wirksame Eindämmung. Das E2EST/AA hebt mehrere Quellen hervor:

  • Technologische Verzerrung: Dazu gehören „Techno-Solutionist Bias“ (übermäßiges Vertrauen in Technologie), „Übersimplifizierung“, „Partielle oder voreingenommene Featurization“ und „Omitted Variable“-Verzerrung.
  • Datenbezogene Verzerrung: „Selection Bias“, „Historical Bias“, „Label Bias“, „Generalization Bias“, „Statistical Bias“, „Measurement Bias“, „Privacy Bias“ und „Aggregation Bias“ fallen unter diese Kategorie.
  • Kognitive Verzerrung: „Over and Underfitting“, „Hot Hand Fallacy“ und „Automation Bias“ stellen kognitive Fehler in der Modellentwicklung dar.
  • Bereitstellungs-Verzerrung: Überlegungen zu „Benchmark Test Bias“ und „Data Visualization“.

Praktische Auswirkungen und regulatorische Bedenken

Das Versäumnis, diese Verzerrungen zu erkennen und zu beheben, kann zu Folgendem führen:

  • Verletzung individueller Rechte
  • Verstärkung von Stereotypen
  • Ineffiziente oder schädliche Entscheidungen
  • Diskriminierung von Einzelpersonen und Gruppen
  • Reproduktion gesellschaftlicher Ungleichheiten

Der Prüfer sollte das Vorhandensein dokumentierter Verfahren zur Verwaltung und Gewährleistung einer ordnungsgemäßen Daten-Governance aufzeichnen, die es ermöglicht, die Genauigkeit, Integrität, Richtigkeit, Wahrhaftigkeit, Aktualisierung und Angemessenheit der für Training, Tests und Betrieb verwendeten Datensätze zu überprüfen und zu gewährleisten.
german

Unter welchen Umständen ist ein Adversarial Audit eine sinnvolle Ergänzung des Prozesses?

Das Dokument legt nahe, dass Adversarial Audits, obwohl optional, in bestimmten Szenarien einen erheblichen Mehrwert bieten. Diese Audits dienen als kritisches Sicherheitsnetz und decken Probleme auf, die selbst die sorgfältigsten Standard-Auditmethoden möglicherweise übersehen.

Hochrisikosysteme

Für Hochrisiko-KI-Systeme und insbesondere solche, die unbeaufsichtigtes maschinelles Lernen (ML) einsetzen, werden Adversarial Audits „dringend empfohlen“. Die Komplexität und Undurchsichtigkeit dieser Systeme kann es erschweren, Modellattribute mit herkömmlichen Mitteln zurückzuverfolgen. Reverse Engineering, das durch Adversarial-Techniken ermöglicht wird, wird zu einem wertvollen Ansatz.

Überprüfung von Auditinformationen

Adversarial Audits sind auch dann von Vorteil, wenn es darum geht, die Vollständigkeit und Richtigkeit der Informationen zu überprüfen, die während des ersten Audits bereitgestellt wurden. Sie bieten eine zusätzliche Kontrollschicht, die sicherstellt, dass potenzielle Verzerrungen und Risiken nicht übersehen werden.

Erkennung von Real-World-Bias

Diese Audits sind besonders effektiv bei der Erkennung von:

  • Ausgelassenen Variablen, die erst dann zum Vorschein kommen, wenn das KI-System in realen Produktionsumgebungen arbeitet.
  • Proxies, die zu ungleicher Behandlung und anderen schädlichen Auswirkungen führen.
  • Lern-Bias – ein Phänomen, bei dem unbeaufsichtigte ML-Systeme Variablen und Labels aus Trainingsdaten einbeziehen, die ursprünglich nicht erwartet wurden, was zu unvorhergesehenen negativen Ergebnissen führt. Diese sind nur durch groß angelegte Auswirkungsdatenanalysen erkennbar.

Zugangsbeschränkungen

Wenn betroffene Gemeinschaften oder Regulierungsbehörden keinen direkten Zugang zu einem algorithmischen System haben, können Adversarial Audits als eigenständige Bewertungen durchgeführt werden. Dies ermöglicht eine unabhängige Überprüfung des Verhaltens und der Auswirkungen des Systems.

Datenerfassungstechniken

Die Durchführung eines Adversarial Audits beinhaltet die Erfassung von Auswirkungsdaten in großem Maßstab unter Verwendung von Techniken wie:

  • Scraping von Webquellen.
  • Befragung von Endnutzern.
  • Crowdsourcing von Daten von Endnutzern.
  • Einsatz von „Sockpuppeting“ – Erstellung gefälschter Profile mit bestimmten Merkmalen, um Modellergebnisse auszulösen und zu analysieren.

Im Wesentlichen sind Adversarial Audits am wertvollsten, wenn es um komplexe, risikoreiche KI-Systeme geht, wenn Auditergebnisse überprüft werden müssen und wenn aufgrund von Zugangsbeschränkungen unabhängige Bewertungen erforderlich sind.

german

Was sind die wesentlichen Bestandteile eines effektiven Prüfberichts?

Aus der Sicht eines Tech-Journalisten, der sich auf KI-Governance und Compliance spezialisiert hat, kommt es beim Prüfbericht auf den Punkt. Es geht nicht nur darum, Kästchen abzuhaken, sondern darum, Vertrauen aufzubauen und sicherzustellen, dass KI-Systeme mit gesellschaftlichen Werten und rechtlichen Rahmenbedingungen übereinstimmen. Hier ist, was ein effektiver KI-Prüfbericht enthalten muss:

Kernprüfberichte

  • Interner E2EST/AA-Bericht mit Abhilfemaßnahmen und Anlagen: Dieser Bericht dokumentiert den Prüfungsprozess, identifiziert Probleme und beschreibt die angewandten oder anwendbaren Abhilfestrategien. Algorithmische Prüfer *sollten* proaktiv sein, Lösungen vorschlagen, die Umsetzung überwachen und Endergebnisse berichten.

  • Öffentlicher E2EST/AA-Bericht: Dies ist das nach außen gerichtete Dokument, das das System, die Prüfungsmethodik, die Abhilfebemühungen, die Verbesserungen und die zukünftigen Empfehlungen beschreibt. Entscheidend ist, dass er die Häufigkeit und Methodik (einschließlich spezifischer Metriken) für nachfolgende Prüfungen vorschlagen muss.

  • Periodische E2EST/AA-Berichte: Dies sind wiederkehrende Folgeberichte. Sie müssen sich auf den ursprünglichen Prüfbericht beziehen und bestätigen, dass die Entwickler weiterhin Bias-Tests durchgeführt, Abhilfestrategien eingesetzt und die Auswirkungen verfolgt haben.

Im Rahmen einer Untersuchung durch eine Aufsichtsbehörde sollten effektive Prüfberichte Elemente enthalten, die Folgendes nachverfolgen:

  • Identifizierung und Transparenz der KI-basierten Komponente, Versionshistorie der Entwicklung der KI-Komponente.
  • Identifizierung der Verantwortlichkeiten, die mit den einzelnen Verarbeitungsstufen verbunden sind.
  • Transparenz der Datenquellen.
  • Identifizierung der Definition der beabsichtigten Zwecke, des Kontexts potenzieller Datenempfänger, der Beschränkungen der Datenspeicherung und der Analyse der Kategorien von Datensubjekten.
  • Identifizierung der Entwicklungspolitik der KI-basierten Komponente.
  • Dokumentation grundlegender theoretischer Modelle.
  • Dokumentation des methodischen Rahmens.
  • Dokumentation der grundlegenden Architektur der KI-basierten Komponente.

Wichtige Elemente für alle Berichte:

Dokumentation: Alle Interaktionen und ausgetauschten Dokumente müssen von Systembesitzern und Prüfern zusammengestellt und archiviert werden.

Risikomanagement:

  • Durchgeführte Risikoanalyse in Bezug auf Sicherheits- und Datenschutzanforderungen.
  • Standards und Best Practices, die bei der sicheren Konfiguration und Entwicklung der KI-Komponente berücksichtigt werden.

Erklärbarkeitsprofile: Prüfberichte müssen Erklärbarkeitsprofile enthalten, um Konsequenzen zu erläutern, die Lesbarkeit des Codes, die Logikkomprimierung und die interne Konsistenz sicherzustellen.

Regelmäßige Audits: Abhängig von der Systemkomplexität können sowohl interne als auch öffentliche Versionen regelmäßiger Audits erforderlich sein.

Letztendlich hängt die Wirksamkeit von algorithmischen Audits von einem umfassenden, soziotechnischen Ansatz ab, der über die bloße Erkennung von Verzerrungen hinausgeht. Indem wir KI-Systeme sorgfältig in ihren realen Kontexten untersuchen – von der Datenerfassung bis zur Bereitstellung – und der Einbeziehung von Interessengruppen Priorität einräumen, können wir gerechtere und gleichberechtigtere Ergebnisse anstreben. Audits können zwar nicht vorgeben, ob ein System existieren sollte, aber sie sind entscheidend, um Rechenschaftspflicht zu gewährleisten, Transparenz zu fördern und potenzielle Schäden in einer zunehmend KI-gesteuerten Welt zu mindern. Kontinuierliche Überwachung und iterative Verbesserungen, die durch transparente Berichterstattung dokumentiert werden, sind von entscheidender Bedeutung, um verantwortungsvolle KI-Entwicklungs- und -Bereitstellungspraktiken in verschiedenen Sektoren aufrechtzuerhalten.

More Insights

AI-Rüstungswettlauf und die Auswirkungen von Tarifen auf den EU-AI-Gesetz

Tarife können sowohl als Hindernis als auch als potenzieller Katalysator für den Fortschritt von KI und Automatisierung wirken. In Kombination mit dem EU-KI-Gesetz ergeben sich komplexe...

Europäische Kommission: Aktionsplan für KI-Souveränität

Die Europäische Kommission hat ihren AI Continent Action Plan veröffentlicht, der darauf abzielt, Europa als globalen Führer im Bereich der künstlichen Intelligenz zu etablieren. Der Plan umfasst eine...

Die AI-Herausforderung: Singapur zwischen Innovation und Regulierung

Singapur steht vor der Herausforderung, ein Gleichgewicht zwischen Innovation und Regulierung im Bereich der Künstlichen Intelligenz (KI) zu finden. Angesichts von Bedenken hinsichtlich Datenschutz...

Verantwortliche KI im Finanzsektor

Lexy Kassan diskutiert die entscheidenden Aspekte von verantwortungsbewusstem KI-Einsatz, insbesondere im Hinblick auf regulatorische Aktualisierungen wie den EU AI Act und dessen Auswirkungen auf die...

Menschzentrierte KI: Wegbereiter für ethische und verantwortungsvolle KI-Agenten

In der sich ständig weiterentwickelnden Landschaft der künstlichen Intelligenz gewinnt das Gespräch über human-zentrierte KI (HCAI) an erheblicher Bedeutung. Diese Paradigmenwechsel ist nicht nur eine...

Der EU AI Act: Grundlagen der Regulierung von Künstlicher Intelligenz

Der EU AI Act markiert den Beginn einer neuen Ära der Regulierung von künstlicher Intelligenz in Europa. Er schafft ein einheitliches rechtliches Regime für alle EU-Mitgliedstaaten und zielt darauf...

EU-Kommission präsentiert Aktionsplan für KI-Entwicklung

Am 9. April 2025 verabschiedete die Europäische Kommission eine Mitteilung über den sogenannten AI Continent Action Plan – ihre Strategie zur Gestaltung der nächsten Phase der KI-Entwicklung in...

Aktualisierte KI-Modellvertragsklauseln der EU veröffentlicht

Die Gemeinschaft der Praxis der EU für öffentliche Beschaffung von KI hat am 5. März 2025 eine aktualisierte Version ihrer nicht verbindlichen EU AI-Modellvertragsklauseln veröffentlicht. Diese...

EU AI Gesetz: Emotionale Erkennungssysteme am Arbeitsplatz unter der Lupe

Emotionserkennungs-KI bezieht sich auf KI, die biometrische Daten wie Gesichtsausdrücke und Stimme verwendet, um Emotionen zu identifizieren und zu analysieren. Der EU AI Act verbietet die Verwendung...