Nouvelles règles sur le contenu généré par l’IA : obligations des plateformes sociales

A digital hourglass with flowing binary code instead of sand

Expliqué : Alors que le gouvernement renforce les règles sur le contenu généré par l’IA, que doivent faire les plateformes de médias sociaux et autres ?

Le gouvernement central a publié aujourd’hui des directives exigeant des plateformes de médias sociaux, entre autres, qu’elles étiquettent clairement tout contenu généré ou modifié par l’intelligence artificielle.

Quelles règles ont changé ?

Le ministère de l’Électronique et des Technologies de l’information a modifié les règles de la technologie de l’information (Directives pour les intermédiaires et Code de l’éthique des médias numériques) de 2021, mardi.

Le cadre intermédiaire de l’Inde a été d’abord établi en 2011 et a été remplacé par les amendements de 2021, qui ont élargi les obligations de diligence raisonnable pour les principaux intermédiaires de médias sociaux et introduit une réglementation pour les actualités numériques et le contenu audio-visuel organisé.

Les dernières directives s’appuient sur ces règles, intégrant l’information générée de manière synthétique, y compris les deepfakes, dans un cadre réglementaire plus strict.

Ce qui a changé

Selon les nouvelles règles, les intermédiaires doivent s’assurer que le contenu généré ou modifié par l’IA est étiqueté ou identifiable, soit par des divulgations visibles, soit par des métadonnées intégrées.

Les règles permettent l’utilisation de mesures techniques telles que des métadonnées intégrées comme identifiants pour permettre une conformité flexible tout en garantissant la traçabilité.

De plus, les règles rendent ces identifiants irréversibles une fois appliqués.

Les plateformes doivent également avertir les utilisateurs des conséquences de l’utilisation abusive de l’IA au moins une fois tous les trois mois.

En outre, le gouvernement a ordonné le déploiement d’outils automatisés pour détecter et prévenir la diffusion de contenu généré par l’IA illégal, sexuellement exploitant ou trompeur.

Auparavant, une fenêtre de 36 heures était accordée aux intermédiaires pour se conformer aux ordres de retrait. Cependant, dans le cadre de mesures d’application plus strictes, les plateformes doivent désormais retirer ou désactiver l’accès au contenu généré par l’IA dans les trois heures suivant la réception d’une ordonnance du tribunal ou du gouvernement.

Qu’est-ce qu’un intermédiaire ?

Les entités qui stockent ou transmettent des données pour le compte des utilisateurs finaux sont des intermédiaires. Cela inclut les fournisseurs de services de télécommunications, les places de marché en ligne, les moteurs de recherche et les médias sociaux.

Comment les règles seront-elles appliquées ?

La phase initiale de l’application se concentre sur les grands intermédiaires de médias sociaux ayant cinq millions ou plus d’utilisateurs enregistrés en Inde. Cela signifie que les règles auront un impact majeur sur les acteurs étrangers.

Pourquoi maintenant ?

Ces mesures interviennent dans le contexte de la récente controverse autour d’un chatbot générant des deepfakes explicites non consensuels. Les changements font également suite aux récentes consultations du gouvernement avec des organismes industriels.

Les règles garantiront que les plateformes informent les utilisateurs sur le contenu généré de manière synthétique et identifient même ceux qui participent à la production de ce type de contenu.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...