AI hat ein Governance-Problem
Künstliche Intelligenz (KI) beeinflusst bereits reale Entscheidungen, die das Leben von Menschen betreffen. Sie spielt eine Rolle dabei, welche Inhalte online entfernt werden, wie schädliches Verhalten gemeldet wird und wie öffentliche Behörden Risiken managen.
In vielen Bereichen wird KI nicht mehr still im Hintergrund getestet, sondern ist bereits Teil des Betriebs von Plattformen und Institutionen.
Die Verantwortung für KI
Jahrelang wurde verantwortungsvolle KI hauptsächlich als ethisches Thema diskutiert, wobei Themen wie Fairness, Vorurteile, Transparenz und Werte im Vordergrund standen. Diese Gespräche sind wichtig und bleiben relevant.
Jedoch sind viele der heutigen KI-Fehler nicht nur auf ethische Meinungsverschiedenheiten oder technische Mängel zurückzuführen. Sie sind häufig das Ergebnis unklarer Verantwortlichkeiten, schwacher Aufsicht und einer Verteilung der Entscheidungsbefugnis auf zu viele Parteien.
Mit anderen Worten, KI ist zu einem Governance-Problem geworden.
Wenn KI-Systeme versagen, versagt oft zuerst die Governance
In vielen Ländern wird KI eingesetzt, um in großem Maßstab zu arbeiten. So verlassen sich soziale Medien auf automatisierte Systeme, um Millionen von Beiträgen täglich zu verarbeiten. Öffentliche Behörden nutzen KI-Tools, um Fälle zu priorisieren, online Schäden zu überwachen und Durchsetzungsarbeit zu unterstützen.
Wenn etwas schiefgeht, lautet die erste Frage oft, ob das Modell genau genug war. Diese Frage verfehlt jedoch das zugrunde liegende Problem: In vielen Fällen hätte die Technologie besser funktionieren können, aber die umgebende Governance versagte.
Häufige Governance-Lücken sind:
- Keine klare Zuständigkeit für ein KI-System
- Eingeschränkte Aufsicht vor der Einführung
- Schwache Eskalation, wenn Schäden auftreten
- Verantwortung verteilt zwischen denjenigen, die Systeme bauen, denjenigen, die sie einsetzen, und denjenigen, die sie regulieren sollen.
Lehren aus Online-Schaden und Inhaltsmoderation
Viele dieser Herausforderungen wurden in einem kürzlichen Podcast über Hassrede, Deepfakes und Online-Sicherheit erörtert, in dem Forscher und Regulierungsbehörden offen über die Grenzen von KI und Regulierung in der Praxis sprachen.
Eine klare Botschaft war: KI-Moderationswerkzeuge existieren bereits und werden weit verbreitet eingesetzt. Maschinelles Lernen ist entscheidend als erste Filterung für schädliche Inhalte. Das schwierigere Problem liegt darin, wie diese Werkzeuge reguliert werden.
Die Inhaltsmoderation funktioniert normalerweise in Schichten:
- Automatisierte Systeme kennzeichnen potenziellen Schaden
- Menschliche Moderatoren überprüfen komplexe oder umstrittene Fälle
- Regulierungsbehörden greifen ein, wenn Plattformen nicht handeln.
Zusammenbrüche treten auf, wenn eine oder mehrere dieser Schichten keine Verantwortlichkeit aufweisen. Plattformen könnten in lokale Sprache und kulturellen Kontext unterinvestieren. Aufsicht könnte sich auf Beschwerden stützen, anstatt präventiv zu handeln. Verantwortung könnte zwischen Unternehmen, die Systeme entwickeln, Plattformen, die sie einsetzen, und Behörden, die sie überwachen sollen, weitergegeben werden.
In mehrsprachigen und kulturell vielfältigen Gesellschaften werden diese Schwächen deutlicher. Sprachmischung, Slang und Kontext ändern sich schnell. Ohne starke Governance haben selbst fähige KI-Systeme Schwierigkeiten, Schritt zu halten.
Wo die Verantwortung versagt
Die Verteilung der Verantwortung bei KI-Systemen, die in der Online-Sicherheit und im öffentlichen Dienst eingesetzt werden, zeigt, dass Kinder und die Allgemeinheit die Folgen mit der geringsten Möglichkeit haben, Entscheidungen zu beeinflussen.
Dieses Netzwerk hilft zu erklären, warum KI-Schäden selten auf einen einzigen Fehler zurückzuführen sind. KI-Systeme werden von einer Gruppe entwickelt, von einer anderen eingesetzt, aus einiger Entfernung überwacht und am direktesten von der Öffentlichkeit erfahren.
Wenn Eigentum, Aufsicht und Eskalation nicht klar miteinander verbunden sind, fallen Schäden in die Lücken zwischen den Institutionen.
Kindersicherheit zeigt, warum Governance am wichtigsten ist
Die Risiken sind besonders klar, wenn Kinder betroffen sind. KI-generierte Deepfakes und synthetische Bilder haben den Online-Missbrauch erleichtert und die Erkennung erschwert.
Ein Beispiel verdeutlicht dies klar. Ein kürzlich aufgetretener Vorfall, der eine KI-Anwendung betraf, erregte globale Aufmerksamkeit, als Berichte aufkamen, dass sie missbraucht werden könnte, um nicht einvernehmliche sexuelle Bilder zu erstellen, einschließlich sexualisierter Bilder von Minderjährigen.
Dies ist wichtig, da es zeigt, wie schnell Schaden von Nischenwerkzeugen in Mainstream-Plattformen übergehen kann. Eine Fähigkeit, die in der Entwurfsphase hätte blockiert werden sollen, kann sich weit verbreiten, bevor die Sicherheitsvorkehrungen nachziehen.
Das ist ein Versagen der Governance, nicht nur ein Versagen der Erkennung.
Verborgene Risiken der KI im öffentlichen Sektor
KI wird auch im öffentlichen Dienst eingesetzt, von Bildung und Sozialhilfe bis hin zu digitaler Durchsetzung und Online-Sicherheit. Diese Systeme beeinflussen reale Ergebnisse für echte Menschen.
Wenn KI im öffentlichen Sektor versagt, gehen die Auswirkungen über die technische Leistung hinaus. Sie betreffen das Vertrauen in Institutionen.
Doch die Governance bleibt oft hinter der Einführung zurück. KI-Systeme können ohne unabhängige Überprüfung, ohne klare Verantwortlichkeit für Ergebnisse und ohne transparente Möglichkeiten für Bürger, Entscheidungen zu hinterfragen, eingeführt werden.
Wenn etwas schiefgeht, bleibt oft die einfache Frage: Wer ist verantwortlich? Wenn Institutionen diese Frage nicht klar beantworten können, erodiert das Vertrauen der Öffentlichkeit schnell.
Was verantwortungsvolle KI in der Praxis bedeutet
Verantwortungsvolle KI bedeutet nicht, KI zu vermeiden. Es bedeutet, sie richtig zu steuern.
In der Praxis bedeutet dies:
- Klare Eigentümerschaft für jedes KI-System
- Definierte Rollen für Aufsicht und Überprüfung
- Dokumentierte Entscheidungsfindung und Risikobewertung
- Laufende Überwachung der realen Auswirkungen
- Die Möglichkeit, Systeme zu pausieren oder zurückzuziehen, wenn Schäden auftreten.
Es bedeutet auch, dass nicht alle Risiken durch bessere Modelle gelöst werden können. Entscheidungen über akzeptable Nutzung, Eskalation und Durchsetzung sind menschliche Entscheidungen, die Führung auf hoher Ebene erfordern.
Von der Diskussion zur Entscheidungsfindung
Verantwortungsvolle KI hat sich von der Diskussion zur Entscheidungsfindung bewegt. Die Schlüsselfragen sind keine abstrakten mehr:
- Wer besitzt das System?
- Wer überwacht es?
- Wer handelt, wenn Schäden auftreten?
Institutionen, die diese Fragen nicht klar beantworten können, werden regulatorischen, reputationalen und vertrauensbasierten Risiken gegenüberstehen, unabhängig davon, wie fortschrittlich ihre Technologie wird.
Da KI zunehmend im öffentlichen Leben verankert wird, muss verantwortungsvolle KI als eine grundlegende Governance-Verantwortung behandelt werden. So wird Vertrauen aufgebaut, Schaden reduziert und Innovationen in einer Weise fortgesetzt, die von der Gesellschaft akzeptiert wird.