Globale Unternehmen sehen sich rechtlichen Risiken unter Indiens KI-Regulierung 2026 gegenüber
Indien hat seine KI-Regulierung durch Änderungen der IT-Regeln (Intermediary Guidelines and Digital Media Ethics Code) von 2021 gestärkt, die am 20. Februar 2026 in Kraft treten. Die überarbeiteten Regeln verlangen eine auffällige Kennzeichnung von KI-generierten Inhalten und führen beschleunigte Löschfristen ein, die so kurz wie zwei bis drei Stunden sind.
Soziale Medien Plattformen und Technologieunternehmen, die in Indien tätig sind, müssen ihre Compliance-Systeme proaktiv an die neuen regulatorischen Vorgaben anpassen, um Durchsetzungsrisiken, Geldstrafen und mögliche rechtliche Verfahren zu minimieren.
Regulierung von KI-generierten Inhalten unter dem IT-Gesetz
Indien reguliert KI nicht als eigenständige Technologie, sondern die Ergebnisse von KI-Systemen, wenn diese von digitalen Intermediären gehostet, übertragen oder ermöglicht werden und gegen indisches Recht verstoßen.
Die Änderungen zu den IT-Regeln erweitern die Compliance-Verpflichtungen in Bezug auf:
- Synthetische oder KI-generierte Inhalte
- Deepfakes und Identitätsmissbrauch
- Nicht einvernehmliche sensible Bilder
- Irreführende und schädliche Inhalte
- Beschleunigte Löschfristen
Regulierung von Deepfakes und Kennzeichnungsanforderungen für KI-Inhalte
Die neuesten Regeln verlangen eine explizite Kennzeichnung von Online-Plattformen. Die Anforderungen umfassen:
- Deutliche und auffällige Kennzeichnung von KI-generierten oder synthetisch erzeugten Inhalten
- Sicherstellung, dass KI-bezogene Kennzeichnungen, Wasserzeichen oder Metadaten nicht entfernt, verändert oder unterdrückt werden können
- Einholung von Benutzereinwilligungen, wenn Inhalte mit KI-Systemen erstellt oder wesentlich verändert wurden
Die Einhaltung dieser Verpflichtungen erfordert eine produktbasierte Implementierung, einschließlich der Erhaltung der Integrität von Backend-Metadaten und Wasserzeichen sowie der Aufrechterhaltung von Prüfprotokollen für die regulatorische Überprüfung.
Komplikationen bei der Einhaltung für Plattformen
Die Verpflichtungen gehen über politische Offenlegungen hinaus und erfordern eine produktbasierte Umsetzung. Bei Nichteinhaltung der vorgeschriebenen Fristen kann es zu:
- Verlust des Safe-Harbor-Schutzes
- Strafrechtlicher Haftung
- Regulatorischen Durchsetzungsmaßnahmen
Rechtliche Grundlagen für die Regulierung von KI-Inhalten in Indien
KI-generierte Inhalte werden unter zwei Gesetzen reguliert:
- Dem Informationstechnologiegesetz (IT Act) von 2000
- Den IT-Regeln (Intermediary Guidelines and Digital Media Ethics Code) von 2021
Der Safe-Harbor-Schutz gilt nur, wenn Intermediäre die Due-Diligence-Anforderungen erfüllen und rechtswidrige KI-Inhalte innerhalb der Fristen entfernen.
Proaktive Schutzverpflichtungen für KI-gestützte Plattformen
Plattformen, die die Erstellung von KI-Inhalten ermöglichen, müssen:
- Angemessene technische Schutzmaßnahmen implementieren
- Systeme zur Verhinderung von Identitätsmissbrauch und Falschdarstellung bereitstellen
- Schnelle Deaktivierungstools einsetzen
Fazit
Indiens regulatorisches Modell verbietet keine KI-generierten Inhalte, unterwirft sie jedoch strengen Verantwortlichkeitsstandards. Die neuen Regeln schaffen ein hochgradig compliance-orientiertes Umfeld für Unternehmen. Für ausländische KI-Unternehmen ist es entscheidend, Echtzeit-Moderationsfähigkeiten zu implementieren, Compliance-Infrastrukturen vor Ort zu etablieren und rechtliche Risiken zu bewerten.