Expliqué : Alors que le gouvernement renforce les règles sur le contenu généré par l’IA, que doivent faire les plateformes de médias sociaux et autres ?
Le gouvernement central a publié aujourd’hui des directives exigeant des plateformes de médias sociaux, entre autres, qu’elles étiquettent clairement tout contenu généré ou modifié par l’intelligence artificielle.
Quelles règles ont changé ?
Le ministère de l’Électronique et des Technologies de l’information a modifié les règles de la technologie de l’information (Directives pour les intermédiaires et Code de l’éthique des médias numériques) de 2021, mardi.
Le cadre intermédiaire de l’Inde a été d’abord établi en 2011 et a été remplacé par les amendements de 2021, qui ont élargi les obligations de diligence raisonnable pour les principaux intermédiaires de médias sociaux et introduit une réglementation pour les actualités numériques et le contenu audio-visuel organisé.
Les dernières directives s’appuient sur ces règles, intégrant l’information générée de manière synthétique, y compris les deepfakes, dans un cadre réglementaire plus strict.
Ce qui a changé
Selon les nouvelles règles, les intermédiaires doivent s’assurer que le contenu généré ou modifié par l’IA est étiqueté ou identifiable, soit par des divulgations visibles, soit par des métadonnées intégrées.
Les règles permettent l’utilisation de mesures techniques telles que des métadonnées intégrées comme identifiants pour permettre une conformité flexible tout en garantissant la traçabilité.
De plus, les règles rendent ces identifiants irréversibles une fois appliqués.
Les plateformes doivent également avertir les utilisateurs des conséquences de l’utilisation abusive de l’IA au moins une fois tous les trois mois.
En outre, le gouvernement a ordonné le déploiement d’outils automatisés pour détecter et prévenir la diffusion de contenu généré par l’IA illégal, sexuellement exploitant ou trompeur.
Auparavant, une fenêtre de 36 heures était accordée aux intermédiaires pour se conformer aux ordres de retrait. Cependant, dans le cadre de mesures d’application plus strictes, les plateformes doivent désormais retirer ou désactiver l’accès au contenu généré par l’IA dans les trois heures suivant la réception d’une ordonnance du tribunal ou du gouvernement.
Qu’est-ce qu’un intermédiaire ?
Les entités qui stockent ou transmettent des données pour le compte des utilisateurs finaux sont des intermédiaires. Cela inclut les fournisseurs de services de télécommunications, les places de marché en ligne, les moteurs de recherche et les médias sociaux.
Comment les règles seront-elles appliquées ?
La phase initiale de l’application se concentre sur les grands intermédiaires de médias sociaux ayant cinq millions ou plus d’utilisateurs enregistrés en Inde. Cela signifie que les règles auront un impact majeur sur les acteurs étrangers.
Pourquoi maintenant ?
Ces mesures interviennent dans le contexte de la récente controverse autour d’un chatbot générant des deepfakes explicites non consensuels. Les changements font également suite aux récentes consultations du gouvernement avec des organismes industriels.
Les règles garantiront que les plateformes informent les utilisateurs sur le contenu généré de manière synthétique et identifient même ceux qui participent à la production de ce type de contenu.