MeitYs neue KI-Inhaltsregeln: 8 wichtige Änderungen, die soziale Mediennutzer wissen müssen
Das Ministerium für Elektronik und Informationstechnologie (MeitY) hat ein strengeres Compliance-Rahmenwerk für KI-generierte Inhalte auf sozialen Medienplattformen eingeführt, das die Fristen und Verantwortlichkeiten sowohl für Nutzer als auch für Technologieunternehmen erheblich verschärft. Dieser Schritt erfolgt vor dem Hintergrund wachsender Bedenken hinsichtlich Deepfakes, Identitätsdiebstahl und dem Missbrauch synthetischer Medien zur Irreführung der Öffentlichkeit.
1. Warum die Regierung gehandelt hat
Die Regierung hat einen Anstieg des Missbrauchs von KI-generierten Inhalten, insbesondere synthetischen Videos, Bildern und Audioinhalten, festgestellt, die darauf abzielen, Einzelpersonen zu desinformieren oder zu diffamieren. Beamte argumentieren, dass trotz des rasanten Fortschritts der KI-Tools auch die Rahmenbedingungen für deren Nutzung weiterentwickelt werden müssen, um Schaden, Fehlinformationen und Rufschädigung zu verhindern.
2. Was als synthetisches Medium zählt
Im Rahmen des neuen Rahmens bezeichnet synthetisches Medium KI-generierte oder KI-manipulierte Inhalte, die überzeugend echte Personen, Stimmen, Ereignisse oder Situationen nachahmen können, sodass die Zuschauer glauben, sie seien authentisch. Dazu gehören realistische Deepfake-Videos, gefälschte Audio-Clips und hyper-reale Bilder.
3. Routinebearbeitungen erfordern keine KI-Kennzeichnung
MeitY hat klargestellt, dass alltägliche digitale Bearbeitungen kein KI-generiertes Label benötigen. Tätigkeiten wie das Anwenden von Foto-Filtern, das Komprimieren von Videos für den Upload, das Transkribieren oder Übersetzen von Inhalten, das Bereinigen von Hintergrundgeräuschen, das Erstellen von Präsentationsfolien, das Formatieren von Dokumenten oder das Erstellen von Diagrammen unter Verwendung von KI-Tools gelten als Routinehilfe und nicht als synthetisches Medium.
4. Verpflichtende Deklaration KI-generierter Inhalte
Soziale Medienplattformen müssen nun sicherstellen, dass Nutzer klar deklarieren, wenn ihre Inhalte KI-generiert sind. Nach der Identifizierung als synthetisch ist die Plattform verpflichtet, ein sichtbares Label anzubringen, um die Zuschauer darüber zu informieren, dass der Inhalt nicht organisch erstellt wurde.
5. Vierteljährliche Nutzerwarnungen
Plattformen sind verpflichtet, die Nutzer alle drei Monate über ihre Verantwortlichkeiten gemäß dem Gesetz zu informieren. Diese Benachrichtigungen müssen klarstellen, dass illegale Inhalte zur Entfernung von Beiträgen, zur Kontosperrung und möglicherweise zur Meldung an die Strafverfolgungsbehörden führen können.
6. Klare Haltung zu Deepfakes und Identitätsdiebstahl
Unternehmen müssen die Nutzer ausdrücklich warnen, keine Deepfakes, Identitätsdiebstahl-Inhalte oder nicht einvernehmlichen intimen Bilder zu erstellen. Verstöße könnten zu schnellen Entfernungen, Kontomaßnahmen und rechtlichen Schritten gemäß den geltenden Gesetzen führen.
7. Kürzere Compliance-Fristen für Löschungen
Eine der bedeutendsten Änderungen ist die drastische Verkürzung der Fristen zur Einhaltung. Wenn die Regierung einen Löschbefehl um 11 Uhr ausgibt, müssen die Plattformen bis 14 Uhr reagieren, was das frühere Zeitfenster von 36 Stunden auf nur drei Stunden verkürzt. Solche Anordnungen können von Polizeibeamten im Rang eines stellvertretenden Inspektors oder höher erlassen werden.
In Fällen, die nackt oder sexuell explizite Bilder betreffen, müssen Plattformen Inhalte innerhalb von zwei Stunden entfernen, verglichen mit der früheren 24-Stunden-Frist. Für von Nutzern gemeldete irreführende Inhalte oder Identitätsdiebstahl haben die Plattformen jetzt 36 Stunden Zeit, anstatt zuvor 72 Stunden.
8. Verbotene Inhalte, die KI-Unternehmen produzieren dürfen
KI-Firmen ist es untersagt, sexuell explizite Deepfakes ohne Zustimmung zu erstellen, Inhalte, die die körperliche Privatsphäre verletzen, gefälschte amtliche Ausweisdokumente, gefälschte Einstellungsangebote, manipulierte Finanzunterlagen oder Anleitungen zu illegalen Handlungen zu generieren.
Sie sind auch eingeschränkt darin, Deepfakes von politischen oder öffentlichen Personen zu erstellen, einschließlich gefälschter Reden von Wahlkandidaten, gefälschter Prominentenempfehlungen, inszenierter Interviews und synthetischer Nachrichtenvisualisierungen, die Unruhen, Angriffe oder Unfälle darstellen, die niemals stattgefunden haben.