Vorgeschlagener KI-Rahmen könnte Vorurteile gegen Minderheiten verstärken
Ein neuer Bericht warnt davor, dass der vorgeschlagene Governance-Rahmen für künstliche Intelligenz in Indien, obwohl er Inklusivität und Innovation propagiert, religiöse Minderheiten, Dalit- und Adivasi-Gemeinschaften sowie sexuelle und geschlechtliche Minderheiten überproportional schädigen könnte, wenn keine verbindlichen Schutzmaßnahmen vorhanden sind. Der Bericht mit dem Titel „KI-Governance am Rande des demokratischen Rückschritts“ argumentiert, dass die Präferenz der Union für freiwillige Einhaltung und Selbstregulierung anstelle von durchsetzbaren gesetzlichen Schutzvorkehrungen das Risiko struktureller Ungleichheiten erhöht.
Risiken und Herausforderungen
Die Richtlinien zur KI-Governance des Ministeriums für Elektronik und Informationstechnologie, die im November 2025 veröffentlicht wurden, lehnen eine als „konformitätslastig“ bezeichnete Regulierung ab und behaupten, dass ein eigenständiges KI-Gesetz derzeit nicht notwendig sei. Der Bericht argumentiert jedoch, dass die Abhängigkeit von bestehenden Gesetzen wie dem Informations-Technologie-Gesetz von 2000 und der Bharatiya Nyaya Sanhita von 2023 möglicherweise unzureichend ist, um neu auftretende Schäden zu behandeln, die in automatisierten Entscheidungssystemen verwurzelt sind.
Während die Vision der Regierung für den Gipfel von „Demokratisierung der KI und Überbrückung der KI-Kluft“ auf den Säulen „Menschen, Planet und Fortschritt“ basiert und inklusives technologisches Wachstum betont, stellt der Bericht fest, dass die Richtlinien nur allgemein auf „verletzliche Gruppen“ verweisen und die spezifischen Risiken für Muslime, Dalits, Adivasis und LGBTQIA+-Personen nicht ausdrücklich anerkennen, wodurch kritische Lücken in den gezielten Schutzmaßnahmen bleiben.
Online- und Offline-Schäden
Der Bericht dokumentiert Fälle, in denen generative KI-Tools die gemeinschaftliche Polarisierung verstärkt haben, einschließlich der Verbreitung von KI-generierten Videos und Bildern, die auf muslimische Gemeinschaften und Oppositionsführer abzielen. Darüber hinaus wirft der Bericht Bedenken hinsichtlich des zunehmenden Einsatzes von KI in der Polizeiarbeit und Überwachung auf. Pilotprojekte für prädiktive Polizeiarbeit in verschiedenen Bundesstaaten könnten bestehende Vorurteile, die in historischen Kriminaldaten verwurzelt sind, reproduzieren.
Die zunehmende Nutzung von Gesichtserkennungstechnologie in Städten wird ebenfalls als besorgniserregend erachtet, da Indien kein dediziertes rechtliches Rahmenwerk hat, das mit der risikobasierten KI-Regulierung der Europäischen Union vergleichbar ist. Darüber hinaus wird auf die Risiken bei der Bereitstellung von Sozialleistungen hingewiesen, da die obligatorische Authentifizierung mittels Gesichtserkennung in Programmen wie den integrierten Kinderentwicklungsdiensten benachteiligte Gruppen überproportional betreffen könnte.
Fazit
Obwohl Indien das Ziel verfolgt, eine souveräne KI-Kapazität aufzubauen, kommen die Autoren zu dem Schluss, dass ohne verbindliche Transparenzpflichten, unabhängige Aufsicht und explizite Minderheitenschutzmaßnahmen das aktuelle Governance-Modell bestehende Ungleichheiten vertiefen könnte, anstatt den technologischen Fortschritt zu demokratisieren.