Nouvelle réglementation indienne sur les contenus générés par IA sur les réseaux sociaux

A digital hourglass with shifting, glitching sand representing the urgency and ephemeral nature of AI-generated content

L’Inde fixe un délai de 3 heures pour les plateformes de médias sociaux concernant le contenu généré par IA et les deepfakes

L’Inde a ordonné aux plateformes de médias sociaux telles que Facebook, Instagram et YouTube de clairement étiqueter tout contenu généré par IA et de s’assurer que ce matériel synthétique porte des identifiants intégrés, selon un ordre officiel.

Mesures d’application strictes

Dans une mesure d’application plus stricte, le gouvernement a établi un délai de trois heures pour que les entreprises de médias sociaux retirent le contenu généré par IA ou les deepfakes une fois qu’il est signalé par le gouvernement ou ordonné par un tribunal.

Les plateformes sont également interdites de permettre la suppression des étiquettes IA ou des métadonnées associées une fois qu’elles ont été appliquées.

Outils de détection et avertissements

Pour réduire les abus, les entreprises devront déployer des outils automatisés pour détecter et empêcher la circulation de contenu généré par IA illégal, sexuellement exploitant ou trompeur.

De plus, les plateformes doivent régulièrement avertir les utilisateurs des conséquences de la violation des règles relatives à l’utilisation abusive de l’IA. Ces avertissements doivent être émis au moins une fois tous les trois mois, selon le gouvernement.

Contexte et directives récentes

Les dernières directives interviennent alors que les inquiétudes concernant la propagation des deepfakes basés sur l’IA en ligne augmentent et s’appuient sur des amendements proposés le mois dernier par le ministère de l’Électronique et des Technologies de l’information (MeitY) aux Règles de technologie de l’information (Directives sur les intermédiaires et code d’éthique des médias numériques) de 2021.

Les règles projetées cherchent à rendre obligatoire la divulgation par les utilisateurs lors de la publication de contenu généré ou modifié par IA et exigent des plateformes qu’elles adoptent une technologie pour vérifier de telles déclarations.

Les plateformes de médias sociaux ont déjà déployé des fonctionnalités permettant aux utilisateurs d’étiqueter certains contenus comme générés ou modifiés à l’aide de l’intelligence artificielle.

Implications pour les plateformes

Le gouvernement concentre actuellement ses efforts d’application sur les principaux intermédiaires de médias sociaux comptant cinq millions ou plus d’utilisateurs enregistrés en Inde.

Actuellement, certaines plateformes exigent que les créateurs divulguent le contenu « significativement altéré » ou généré de manière synthétique dans des cas spécifiques, y compris les vidéos qui font apparaître une personne réelle dire ou faire quelque chose qu’elle n’a pas fait.

Les entreprises doivent donc être prêtes à se conformer à ces nouvelles exigences pour éviter des sanctions potentielles.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...