Was hat die Regierung zur Kennzeichnung von KI-Inhalten festgelegt?
Die Geschichte bisher: Das Ministerium für Elektronik und Informationstechnologie hat in dieser Woche eine Änderung der IT-Regeln von 2021 bekannt gegeben, die von Nutzern und sozialen Medien verlangt, KI-generierte Inhalte zu kennzeichnen. Zudem wurden die Fristen für die Entfernung von Inhalten – nicht nur für KI-generierte Beiträge – von 24-36 Stunden auf zwei bis drei Stunden verkürzt. Diese Regeln treten am 20. Februar in Kraft.
Was ist KI-generierter Inhalt?
Die Änderungsregeln zu den Informationstechnologie-Richtlinien erfordern von sozialen Medien, dass sie „synthetisch erzeugte“ Inhalte, also KI-generierte Bilder und Videos, „deutlich“ kennzeichnen. Diese Anforderung wurde erstmals im Oktober letzten Jahres vorgeschlagen und nun bekannt gegeben. Soziale Medien mit mehr als fünf Millionen Nutzern sind aufgefordert, eine „Nutzererklärung [für KI-generierte Inhalte] einzuholen und [technische Überprüfungen] durchzuführen, bevor sie [KI-generierte Inhalte] veröffentlichen“.
Das Ministerium erklärte, dass diese Anforderung eingeführt wurde, um „Deepfakes, Fehlinformationen und andere rechtswidrige Inhalte, die Nutzer irreführen, schädigen, die Privatsphäre verletzen oder die nationale Integrität bedrohen könnten“, entgegenzuwirken. Es ist wichtig, dass Nutzer wissen, ob das, was sie sehen, authentisch ist.
Die endgültigen Regeln schließen einige Ausnahmen aus. Zum Beispiel werden automatisch nachbearbeitete Fotos, die mit Smartphones aufgenommen wurden, nicht als synthetisch erzeugte Informationen betrachtet, und spezielle Effekte in Filmen müssen nicht gekennzeichnet werden. Die Regeln verbieten auch bestimmte Arten von synthetisch erzeugten Informationen: Materialien zur sexuellen Ausbeutung und Missbrauch von Kindern, gefälschte Dokumente, Informationen über die Herstellung von Sprengstoffen und Deepfakes, die fälschlicherweise eine reale Person darstellen.
Wie kann KI-generierter Inhalt erkannt werden?
Die Regierung hat große Plattformen aufgefordert, „angemessene technische Maßnahmen zu ergreifen, um rechtswidrige synthetisch erzeugte Informationen zu verhindern und die Anforderungen an Kennzeichnung, Herkunft und Identifikation für zulässige synthetisch erzeugte Informationen sicherzustellen“. Ein hochrangiger Beamter des IT-Ministeriums argumentierte, dass große Plattformen über ausgeklügelte Werkzeuge zur Erkennung von synthetisch erzeugten Informationen verfügen und diese Anforderung lediglich eine Erkennung erfordert, die sie bereits durchführen.
Einige KI-Firmen und Plattformen haben an der Coalition for Content Provenance and Authenticity (C2PA) teilgenommen, die technische Standards anbietet, um KI-generierte Inhalte unsichtbar zu kennzeichnen. Die Regeln beziehen sich auf diesen Ansatz, indem sie „Herkunft / Identifikationsanforderungen“ vorschreiben, betonen jedoch, dass sie keine einzelne Initiative unterstützen möchten, sondern die Ziele solcher Kooperationen formal anerkennen wollen.
Änderungen bei den Fristen
Die IT-Regeln ermöglichen es bestimmten Regierungsbehörden und Polizeibeamten, Entfernen-Benachrichtigungen unter Regel 3(1)(b) zu erlassen, und Nutzern, Beschwerden über „illegale“ Kategorien von Inhalten einzureichen, die in den IT-Regeln aufgeführt sind. Diese Kategorien umfassen Fehlinformationen, Nacktheit und Bedrohungen der Souveränität. Für sowohl Regierungs- als auch gerichtlich erlassene Entfernen-Benachrichtigungen wurden die Fristen auf 2-3 Stunden verkürzt, während für alle anderen Kategorien von Nutzerbeschwerden (wie Verleumdung und Fehlinformationen) die Fristen von zwei Wochen auf eine Woche verkürzt wurden. Die Fristen für die Reaktion auf Nutzerberichte zu „sensitiven“ Inhalten wurden ebenfalls von 72 Stunden auf 36 Stunden verkürzt. Die Regierung argumentierte, dass die vorherigen Fristen es ermöglichten, dass in dieser Zeit viel Schaden angerichtet werden konnte, was eine Überprüfung der Reaktionszeiten der Plattformen notwendig machte.
Weitere Änderungen
Nutzer müssen jetzt häufiger an die Nutzungsbedingungen der Plattformen erinnert werden. „Die Änderungen umfassen Revisionen der Regel 3(1)(c) der Intermediärregeln, die die Häufigkeit der Nutzerbenachrichtigungen von einmal jährlich auf mindestens einmal alle drei Monate erhöhen und den Inhalt solcher Benachrichtigungen erweitern, um potenzielle Folgen der Nichteinhaltung und Meldepflichten zu verdeutlichen.“
Die Regeln verlangen auch, dass Plattformen die Nutzer ausdrücklich warnen, dass schädliche Deepfakes und andere illegale KI-generierte Inhalte sie rechtlichen Konsequenzen aussetzen könnten, einschließlich der Offenlegung ihrer Identität gegenüber Strafverfolgungsbehörden und der „sofortigen Deaktivierung des Zugangs oder Entfernung solcher Inhalte, der Aussetzung oder Kündigung von Nutzerkonten“.