Les nouvelles règles de contenu AI de MeitY : 8 changements clés que les utilisateurs des réseaux sociaux doivent connaître
Le ministère de l’Électronique et des Technologies de l’Information (MeitY) a mis en place un cadre de conformité plus strict pour le contenu généré par l’intelligence artificielle sur les plateformes de réseaux sociaux, renforçant ainsi considérablement les délais et les normes de responsabilité pour les utilisateurs et les entreprises technologiques. Cette initiative survient en réponse à des préoccupations croissantes concernant les deepfakes, l’usurpation d’identité et l’utilisation abusive des médias synthétiques pour tromper le public.
1. Pourquoi le gouvernement a agi
Le gouvernement a signalé une augmentation de l’utilisation abusive du contenu généré par l’IA, en particulier les vidéos synthétiques, les images et l’audio destinés à désinformer ou à diffamer des individus. Les responsables soutiennent que, bien que les outils d’IA avancent rapidement, des garde-fous doivent évoluer pour prévenir les préjudices, la désinformation et les dommages à la réputation.
2. Ce qui compte comme média synthétique
Selon le nouveau cadre, les médias synthétiques se réfèrent au contenu généré ou manipulé par l’IA qui peut imiter de manière convaincante des personnes, des voix, des événements ou des situations, de manière à tromper les spectateurs en leur faisant croire qu’il est authentique. Cela inclut des vidéos deepfake réalistes, des clips audio fabriqués et des images hyper-réalistes.
3. Les modifications de routine ne nécessitent pas d’étiquetage IA
Le MeitY a clarifié que les modifications numériques quotidiennes n’exigeront pas d’étiquette indiquant qu’elles sont générées par l’IA. Des activités telles que l’application de filtres photo, la compression de vidéos pour le téléchargement, la transcription ou la traduction de contenu, ainsi que le nettoyage du bruit de fond, sont considérées comme une assistance routinière, et non comme des médias synthétiques.
4. Déclaration obligatoire du contenu généré par l’IA
Les plateformes de réseaux sociaux doivent désormais s’assurer que les utilisateurs déclarent clairement lorsque leur contenu est généré par l’IA. Une fois identifié comme synthétique, la plateforme est tenue d’attacher une étiquette visible pour informer les spectateurs que le contenu n’est pas créé de manière organique.
5. Avertissements trimestriels aux utilisateurs
Les plateformes sont tenues d’informer les utilisateurs tous les trois mois de leurs responsabilités selon la loi. Ces notifications doivent préciser que le contenu illégal peut entraîner la suppression de publications, la suspension de comptes et un signalement potentiel aux autorités judiciaires.
6. Position ferme sur les deepfakes et l’usurpation d’identité
Les entreprises doivent explicitement mettre en garde les utilisateurs contre la création de deepfakes, de contenu d’usurpation d’identité ou d’images intimes non consensuelles. Les violations pourraient entraîner une suppression rapide du contenu, des actions sur les comptes et des poursuites judiciaires selon les lois applicables.
7. Délais de conformité plus courts pour les suppressions
Un des changements les plus significatifs est la réduction drastique des délais de conformité. Si le gouvernement émet une directive de suppression à 11 heures, les plateformes doivent se conformer d’ici 14 heures, réduisant ainsi la fenêtre antérieure de 36 heures à seulement trois heures. De telles ordres peuvent être émis par des officiers de police de rang de directeur adjoint (DIG) ou supérieur.
8. Interdictions pour les entreprises d’IA
Les entreprises d’IA sont interdites de produire des deepfakes sexuels explicites sans consentement, du contenu violant la vie privée corporelle, des documents d’identification gouvernementaux falsifiés, de fausses lettres de nomination, des dossiers financiers manipulés, ou du contenu d’instructions lié aux explosifs. Elles sont également interdites de créer des deepfakes de figures politiques ou publiques, y compris des discours fabriqués par des candidats aux élections, de fausses endorsements de célébrités, des interviews mises en scène, des directives falsifiées par des fonctionnaires ou des PDG, et des visuels synthétiques de nouvelles représentant des émeutes, des attaques ou des accidents qui n’ont jamais eu lieu.