AI-Rahmenwerk gefährdet Minderheitenrechte in Indien

Vorgeschlagener KI-Rahmen könnte Vorurteile gegen Minderheiten verstärken

Ein neuer Bericht warnt davor, dass der vorgeschlagene Governance-Rahmen für künstliche Intelligenz in Indien, obwohl er Inklusivität und Innovation propagiert, religiöse Minderheiten, Dalit- und Adivasi-Gemeinschaften sowie sexuelle und geschlechtliche Minderheiten überproportional schädigen könnte, wenn keine verbindlichen Schutzmaßnahmen vorhanden sind. Der Bericht mit dem Titel „KI-Governance am Rande des demokratischen Rückschritts“ argumentiert, dass die Präferenz der Union für freiwillige Einhaltung und Selbstregulierung anstelle von durchsetzbaren gesetzlichen Schutzvorkehrungen das Risiko struktureller Ungleichheiten erhöht.

Risiken und Herausforderungen

Die Richtlinien zur KI-Governance des Ministeriums für Elektronik und Informationstechnologie, die im November 2025 veröffentlicht wurden, lehnen eine als „konformitätslastig“ bezeichnete Regulierung ab und behaupten, dass ein eigenständiges KI-Gesetz derzeit nicht notwendig sei. Der Bericht argumentiert jedoch, dass die Abhängigkeit von bestehenden Gesetzen wie dem Informations-Technologie-Gesetz von 2000 und der Bharatiya Nyaya Sanhita von 2023 möglicherweise unzureichend ist, um neu auftretende Schäden zu behandeln, die in automatisierten Entscheidungssystemen verwurzelt sind.

Während die Vision der Regierung für den Gipfel von „Demokratisierung der KI und Überbrückung der KI-Kluft“ auf den Säulen „Menschen, Planet und Fortschritt“ basiert und inklusives technologisches Wachstum betont, stellt der Bericht fest, dass die Richtlinien nur allgemein auf „verletzliche Gruppen“ verweisen und die spezifischen Risiken für Muslime, Dalits, Adivasis und LGBTQIA+-Personen nicht ausdrücklich anerkennen, wodurch kritische Lücken in den gezielten Schutzmaßnahmen bleiben.

Online- und Offline-Schäden

Der Bericht dokumentiert Fälle, in denen generative KI-Tools die gemeinschaftliche Polarisierung verstärkt haben, einschließlich der Verbreitung von KI-generierten Videos und Bildern, die auf muslimische Gemeinschaften und Oppositionsführer abzielen. Darüber hinaus wirft der Bericht Bedenken hinsichtlich des zunehmenden Einsatzes von KI in der Polizeiarbeit und Überwachung auf. Pilotprojekte für prädiktive Polizeiarbeit in verschiedenen Bundesstaaten könnten bestehende Vorurteile, die in historischen Kriminaldaten verwurzelt sind, reproduzieren.

Die zunehmende Nutzung von Gesichtserkennungstechnologie in Städten wird ebenfalls als besorgniserregend erachtet, da Indien kein dediziertes rechtliches Rahmenwerk hat, das mit der risikobasierten KI-Regulierung der Europäischen Union vergleichbar ist. Darüber hinaus wird auf die Risiken bei der Bereitstellung von Sozialleistungen hingewiesen, da die obligatorische Authentifizierung mittels Gesichtserkennung in Programmen wie den integrierten Kinderentwicklungsdiensten benachteiligte Gruppen überproportional betreffen könnte.

Fazit

Obwohl Indien das Ziel verfolgt, eine souveräne KI-Kapazität aufzubauen, kommen die Autoren zu dem Schluss, dass ohne verbindliche Transparenzpflichten, unabhängige Aufsicht und explizite Minderheitenschutzmaßnahmen das aktuelle Governance-Modell bestehende Ungleichheiten vertiefen könnte, anstatt den technologischen Fortschritt zu demokratisieren.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...