Neue Regeln für KI-Inhalte: Was soziale Medien jetzt beachten müssen

Erklärung: Was müssen soziale Medienplattformen und andere tun, wenn die Regierung die Regeln für KI-Inhalte verschärft?

Die Zentralregierung hat heute Richtlinien veröffentlicht, die soziale Medienplattformen und andere dazu verpflichten, alle Inhalte, die durch künstliche Intelligenz (KI) erzeugt oder verändert wurden, klar zu kennzeichnen.

Welche Regeln haben sich geändert?

Das Ministerium für Elektronik und Informationstechnologie hat am Dienstag Änderungen an den Richtlinien für die Informationstechnologie (Intermediary Guidelines and Digital Media Ethics Code) 2021 vorgenommen.

Der Rahmen für Intermediäre in Indien wurde erstmals 2011 festgelegt und später durch die Änderungen von 2021 ersetzt, die die Sorgfaltspflichten für große soziale Medienintermediäre erweiterten und eine Regulierung für digitale Nachrichten und kuratierte audiovisuelle Inhalte einführten.

Die neuesten Richtlinien bauen auf diesen Regeln auf und bringen synthetisch erzeugte Informationen (SGI), einschließlich Deepfakes, in einen strengeren regulatorischen Rahmen.

Was hat sich geändert?

Nach den neuen Regeln müssen Intermediäre sicherstellen, dass KI-generierte oder -modifizierte Inhalte gekennzeichnet oder identifizierbar sind, entweder durch sichtbare Offenlegungen oder eingebettete Metadaten.

Die Regeln erlauben den Einsatz technischer Maßnahmen wie eingebettete Metadaten als Identifikatoren, um flexibles Einhalten der Vorschriften zu ermöglichen und gleichzeitig die Nachverfolgbarkeit zu gewährleisten.

Darüber hinaus sind diese Identifikatoren unwiderruflich, sobald sie angewendet wurden.

Plattformen müssen außerdem ihre Nutzer alle drei Monate über die Folgen des Missbrauchs von KI informieren.

Die Regierung hat zudem den Einsatz automatisierter Werkzeuge zur Erkennung und Verhinderung der Verbreitung illegaler, sexuell ausbeuterischer oder irreführender KI-generierter Inhalte angeordnet.

Früher hatten Intermediäre 36 Stunden Zeit, um auf Löschanordnungen zu reagieren. Unter den strengeren Durchsetzungsmaßnahmen müssen Plattformen nun KI-generierte Inhalte innerhalb von drei Stunden nach Erhalt einer Anordnung von Gericht oder Regierung entfernen oder den Zugang dazu sperren.

Was sind Intermediäre?

Intermediäre sind Entitäten, die Daten im Auftrag von Endbenutzern speichern oder übertragen. Dazu gehören Telekommunikationsdienstanbieter, Online-Marktplätze, Suchmaschinen und soziale Medien.

Wie werden die Regeln durchgesetzt?

Die erste Phase der Durchsetzung konzentriert sich auf große soziale Medienintermediäre mit fünf Millionen oder mehr registrierten Benutzern in Indien. Dies bedeutet, dass die Regeln hauptsächlich ausländische Anbieter betreffen.

Warum jetzt?

Diese Maßnahmen folgen auf die jüngste Kontroverse um Grok, bei der der KI-Chatbot nicht einvernehmliche explizite Deepfakes generierte. Die Änderungen basieren auch auf den jüngsten Konsultationen der Regierung mit Branchenverbänden.

Die Regeln sollen sicherstellen, dass Plattformen Nutzer über synthetisch erzeugte Informationen (SGI) informieren und sogar die an der Erstellung solcher Inhalte Beteiligten identifizieren.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...