Indien schlägt einen techno-rechtlichen AI-Governance-Rahmen vor
Das Büro des Hauptwissenschaftsberaters Indiens hat ein Weißbuch veröffentlicht, das darlegt, wie Indien künstliche Intelligenz (KI) durch einen sogenannten „techno-rechtlichen“ Rahmen regieren möchte. Anstatt ein eigenständiges oder umfassendes KI-Gesetz vorzuschlagen, argumentiert das Dokument, dass die Governance innerhalb der KI-Systeme selbst funktionieren muss, durch technische Kontrollen, die über den gesamten Lebenszyklus des Systems angewendet werden und in bestehenden rechtlichen und regulatorischen Instrumenten verankert sind.
Das Weißbuch verfolgt stattdessen ein Modell, das als „Law-Plus“ bezeichnet wird. Unter diesem Ansatz füllen sektorenspezifische Regeln, untergeordnete Gesetzgebung, regulatorische Leitlinien, Standards und technische Durchsetzungsmechanismen Lücken in der KI-Governance, die auf bestehenden Gesetzen basieren.
Warum dieser Rahmen vorgeschlagen wurde
Im Vorwort schreibt der Hauptwissenschaftsberater, dass KI erhebliches transformatorisches Potenzial bietet, unkontrollierte Risiken und Schäden jedoch das Vertrauen untergraben und die Akzeptanz verlangsamen könnten. Vor diesem Hintergrund situieren die Autoren den indischen Ansatz in einem globalen Umfeld, in dem Regierungen weiterhin mit risikobasierten Regulierungen, prinzipiengeleiteten Rahmenwerken und standardspezifischen Governance-Modellen experimentieren.
Aufbauend auf den KI-Governance-Richtlinien Indiens skizziert das Weißbuch einen innovationsfreundlichen Ansatz, der grundlegende rechtliche Schutzmaßnahmen, sektorale Regulierung, technische Maßnahmen und institutionelle Mechanismen kombiniert, um das zu ermöglichen, was als „sichere und vertrauenswürdige KI“ beschrieben wird.
Was „techno-rechtliche KI-Governance“ bedeutet
Im Kern des Weißbuchs liegt ein Wandel in der Konzeptualisierung der Governance. Der techno-rechtliche Ansatz wird als Integration von rechtlichen Instrumenten, regelbasierten Bedingungen, regulatorischer Aufsicht und technischen Durchsetzungsmechanismen definiert, die direkt in KI-Systeme durch Design eingebettet sind.
In diesem Rahmen funktioniert Governance nicht als externe Einschränkung, die nach der Bereitstellung auferlegt wird, sondern als intrinsisches Merkmal von KI-Systemen, das auf sich entwickelnde Risiken reagieren kann.
Der Rahmen priorisiert Proportionalität und Flexibilität und lehnt einheitliche Verpflichtungen für alle KI-Systeme ab. Stattdessen fordert er kontextsensible Regulierung, die durch institutionelle Kapazitäten und die Vielfalt des Ökosystems geprägt ist.
Warum der Lebenszyklus-basierte Ansatz zentral ist
Das Weißbuch geht davon aus, dass KI-Risiken nicht an einem einzigen Punkt auftreten, sondern sich über den gesamten Lebenszyklus eines KI-Systems ansammeln. Einige Schäden, insbesondere solche, die mit der Datennutzung und dem Modelltraining verbunden sind, werden schwierig oder kostspielig zu beheben, sobald Systeme in Betrieb sind.
Um diese Herausforderung anzugehen, unterscheidet der Rahmen zwischen „KI-Nutzern“ und „KI-Subjekten“. Während Nutzer direkt mit KI-Systemen interagieren, können Subjekte die Auswirkungen von KI-gesteuerten Entscheidungen ohne Wissen oder Zustimmung erfahren. Der Rahmen organisiert die Governance um fünf Phasen des KI-Lebenszyklus.
Die Phasen des KI-Lebenszyklus
- Datensammlung: Hier treten Risiken in die KI-Systeme ein, darunter Datenschutz, Sicherheit, geistiges Eigentum und Fairness. Unbehandelte Risiken können zu regulatorischen Verstößen und unsicheren KI-Systemen führen.
- Datenschutz in Verwendung: Diese Phase ist besonders sensibel, da Missbrauch oft irreversibel ist. Risiken wie unbefugter Zugriff und Sicherheitsverletzungen werden hervorgehoben.
- KI-Training und Modellbewertung: In diesem Stadium werden Risiken in Bezug auf Privatsphäre, Sicherheit und Fairness behandelt, wobei auch Kompromisse zwischen Fairness und Datenschutz erkannt werden.
- Sichere KI-Inferenz: Diese Phase ist hochriskant, da KI-Systeme mit Benutzern und Echtzeitdaten interagieren. Risiken wie unabsichtliche Offenlegung sensibler Informationen und Sicherheitsangriffe sind hier relevant.
- Vertrauenswürdige und handlungsfähige KI-Systeme: Bei zunehmender Autonomie der Systeme steigen auch die Governance-Risiken, was zusätzliche Kontrollen erfordert.
Wie der techno-rechtliche Rahmen in der Praxis funktionieren soll
Um den Rahmen zu operationalisieren, wird eine mehrschichtige institutionelle Architektur vorgeschlagen, die Koordination, Expertise, Tests und Lernmechanismen kombiniert. Im Zentrum steht eine AI Governance Group, die über Ministerien und Aufsichtsbehörden hinweg koordiniert.
Zusätzlich wird eine nationale KI-Vorfall-Datenbank vorgeschlagen, um KI-bezogene Vorfälle zu melden und institutionelles Lernen zu ermöglichen.
Was dieser Rahmen nicht löst
Erstens klärt das Weißbuch nicht, wie die Durchsetzung bei KI-Fehlern, die mehrere Regulierungsbehörden betreffen, erfolgen soll. Zweitens bleibt unklar, wie KI-Subjekte Schäden anfechten können. Drittens werden keine Grenzwerte für die Durchsetzung von freiwilligen Verpflichtungen definiert. Schließlich wird davon ausgegangen, dass eine erhebliche technische Kapazität vorhanden ist, was in der Praxis Fragen zur Durchführbarkeit aufwirft.
Insgesamt erkennt das Weißbuch an, dass der techno-rechtliche Rahmen nicht alle Kompromisse löst, sondern als schrittweiser Ansatz positioniert wird, der Schutzmaßnahmen in Systeme einbettet und gleichzeitig regulatorische Flexibilität bewahrt.