Neue Vorschriften zur Kennzeichnung von KI-Inhalten

Was hat die Regierung zur Kennzeichnung von KI-Inhalten festgelegt?

Die Geschichte bisher: Das Ministerium für Elektronik und Informationstechnologie hat in dieser Woche eine Änderung der IT-Regeln von 2021 bekannt gegeben, die von Nutzern und sozialen Medien verlangt, KI-generierte Inhalte zu kennzeichnen. Zudem wurden die Fristen für die Entfernung von Inhalten – nicht nur für KI-generierte Beiträge – von 24-36 Stunden auf zwei bis drei Stunden verkürzt. Diese Regeln treten am 20. Februar in Kraft.

Was ist KI-generierter Inhalt?

Die Änderungsregeln zu den Informationstechnologie-Richtlinien erfordern von sozialen Medien, dass sie „synthetisch erzeugte“ Inhalte, also KI-generierte Bilder und Videos, „deutlich“ kennzeichnen. Diese Anforderung wurde erstmals im Oktober letzten Jahres vorgeschlagen und nun bekannt gegeben. Soziale Medien mit mehr als fünf Millionen Nutzern sind aufgefordert, eine „Nutzererklärung [für KI-generierte Inhalte] einzuholen und [technische Überprüfungen] durchzuführen, bevor sie [KI-generierte Inhalte] veröffentlichen“.

Das Ministerium erklärte, dass diese Anforderung eingeführt wurde, um „Deepfakes, Fehlinformationen und andere rechtswidrige Inhalte, die Nutzer irreführen, schädigen, die Privatsphäre verletzen oder die nationale Integrität bedrohen könnten“, entgegenzuwirken. Es ist wichtig, dass Nutzer wissen, ob das, was sie sehen, authentisch ist.

Die endgültigen Regeln schließen einige Ausnahmen aus. Zum Beispiel werden automatisch nachbearbeitete Fotos, die mit Smartphones aufgenommen wurden, nicht als synthetisch erzeugte Informationen betrachtet, und spezielle Effekte in Filmen müssen nicht gekennzeichnet werden. Die Regeln verbieten auch bestimmte Arten von synthetisch erzeugten Informationen: Materialien zur sexuellen Ausbeutung und Missbrauch von Kindern, gefälschte Dokumente, Informationen über die Herstellung von Sprengstoffen und Deepfakes, die fälschlicherweise eine reale Person darstellen.

Wie kann KI-generierter Inhalt erkannt werden?

Die Regierung hat große Plattformen aufgefordert, „angemessene technische Maßnahmen zu ergreifen, um rechtswidrige synthetisch erzeugte Informationen zu verhindern und die Anforderungen an Kennzeichnung, Herkunft und Identifikation für zulässige synthetisch erzeugte Informationen sicherzustellen“. Ein hochrangiger Beamter des IT-Ministeriums argumentierte, dass große Plattformen über ausgeklügelte Werkzeuge zur Erkennung von synthetisch erzeugten Informationen verfügen und diese Anforderung lediglich eine Erkennung erfordert, die sie bereits durchführen.

Einige KI-Firmen und Plattformen haben an der Coalition for Content Provenance and Authenticity (C2PA) teilgenommen, die technische Standards anbietet, um KI-generierte Inhalte unsichtbar zu kennzeichnen. Die Regeln beziehen sich auf diesen Ansatz, indem sie „Herkunft / Identifikationsanforderungen“ vorschreiben, betonen jedoch, dass sie keine einzelne Initiative unterstützen möchten, sondern die Ziele solcher Kooperationen formal anerkennen wollen.

Änderungen bei den Fristen

Die IT-Regeln ermöglichen es bestimmten Regierungsbehörden und Polizeibeamten, Entfernen-Benachrichtigungen unter Regel 3(1)(b) zu erlassen, und Nutzern, Beschwerden über „illegale“ Kategorien von Inhalten einzureichen, die in den IT-Regeln aufgeführt sind. Diese Kategorien umfassen Fehlinformationen, Nacktheit und Bedrohungen der Souveränität. Für sowohl Regierungs- als auch gerichtlich erlassene Entfernen-Benachrichtigungen wurden die Fristen auf 2-3 Stunden verkürzt, während für alle anderen Kategorien von Nutzerbeschwerden (wie Verleumdung und Fehlinformationen) die Fristen von zwei Wochen auf eine Woche verkürzt wurden. Die Fristen für die Reaktion auf Nutzerberichte zu „sensitiven“ Inhalten wurden ebenfalls von 72 Stunden auf 36 Stunden verkürzt. Die Regierung argumentierte, dass die vorherigen Fristen es ermöglichten, dass in dieser Zeit viel Schaden angerichtet werden konnte, was eine Überprüfung der Reaktionszeiten der Plattformen notwendig machte.

Weitere Änderungen

Nutzer müssen jetzt häufiger an die Nutzungsbedingungen der Plattformen erinnert werden. „Die Änderungen umfassen Revisionen der Regel 3(1)(c) der Intermediärregeln, die die Häufigkeit der Nutzerbenachrichtigungen von einmal jährlich auf mindestens einmal alle drei Monate erhöhen und den Inhalt solcher Benachrichtigungen erweitern, um potenzielle Folgen der Nichteinhaltung und Meldepflichten zu verdeutlichen.“

Die Regeln verlangen auch, dass Plattformen die Nutzer ausdrücklich warnen, dass schädliche Deepfakes und andere illegale KI-generierte Inhalte sie rechtlichen Konsequenzen aussetzen könnten, einschließlich der Offenlegung ihrer Identität gegenüber Strafverfolgungsbehörden und der „sofortigen Deaktivierung des Zugangs oder Entfernung solcher Inhalte, der Aussetzung oder Kündigung von Nutzerkonten“.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...