Renforcement de la réglementation sur l’IA : obligations d’étiquetage et traçabilité du contenu synthétique

A digital hourglass with flowing binary code instead of sand

Le gouvernement renforce les règles numériques sur l’IA et impose l’étiquetage du contenu synthétique

Le gouvernement a considérablement renforcé le cadre de gouvernance numérique en formalisant l’inclusion des informations générées synthétiquement (SGI), y compris le contenu audio, vidéo et visuel généré par l’IA, dans le cadre des règles de l’Information Technology (Intermediary Guidelines and Digital Media Ethics Code) grâce à des amendements notifiés le 10 février 2026.

Définitions claires du contenu synthétique

Pour la première fois, les règles définissent le terme « informations générées synthétiquement » comme un contenu audio, visuel ou audiovisuel créé, modifié ou altéré de manière artificielle ou algorithmique à l’aide de ressources informatiques, d’une manière qui semble réelle ou authentique, dépeignant des individus ou des événements d’une manière qui peut être indiscernable de ceux du monde réel.

Cependant, le gouvernement a prévu des exemptions explicites. L’édition, le formatage, la correction des couleurs, la réduction du bruit, la transcription, la compression, la traduction ou les améliorations liées à l’accessibilité ne seront pas considérés comme des SGI, à condition que ces modifications ne déforment pas matériellement le sens ou le contexte d’origine. De même, le contenu illustratif ou conceptuel utilisé dans des documents, des recherches ou des matériaux éducatifs a été exclu de la définition de SGI.

Étiquetage obligatoire et métadonnées

Une exigence clé de conformité sous les règles amendées est l’étiquetage obligatoire du contenu généré synthétiquement. Les intermédiaires qui permettent ou facilitent la création ou la diffusion de SGI doivent s’assurer que ce contenu est clairement, de manière proéminente et sans ambiguïté étiqueté, afin que les utilisateurs puissent immédiatement l’identifier comme synthétique.

De plus, les plateformes doivent intégrer des métadonnées persistantes ou d’autres mécanismes techniques de provenance, y compris des identifiants uniques, pour permettre la traçabilité des SGI jusqu’à la ressource informatique de l’intermédiaire, dans la mesure du possible. Il est important de noter que les intermédiaires sont interdits de permettre la suppression ou la falsification de ces étiquettes ou métadonnées.

Obligations accrues pour les grandes plateformes de médias sociaux

Les « intermédiaires de médias sociaux significatifs » font face à des obligations renforcées. Avant de permettre le téléchargement ou la publication, ces plateformes doivent obtenir des déclarations des utilisateurs indiquant si le contenu est généré synthétiquement. Elles doivent également déployer des mesures techniques raisonnables et proportionnées, y compris des outils automatisés, pour vérifier l’exactitude de ces déclarations.

Lorsque le contenu est identifié comme SGI, les plateformes doivent s’assurer qu’il est affiché avec une divulgation ou un avis approprié indiquant clairement sa nature synthétique. Le non-respect de cette diligence raisonnable pourrait exposer les plateformes à des responsabilités en vertu du cadre amendé.

Retraits plus rapides et délais plus stricts

Les amendements compressent également plusieurs délais de conformité, signalant une position plus stricte sur le contenu nuisible en ligne. Le délai pour que les intermédiaires agissent sur des ordres ou des plaintes légales dans certains cas a été réduit — de 36 heures à 3 heures dans des circonstances spécifiques — tandis que d’autres délais de réponse ont été raccourcis de 15 jours à sept jours, et de 24 heures à 12 heures, selon la nature de la violation.

Contenu synthétique explicitement lié à des actes illégaux

Les règles clarifient que toute référence à des « informations » utilisées pour commettre un acte illégal — y compris sous les obligations de diligence raisonnable des utilisateurs — inclut explicitement les informations générées synthétiquement. Cela intègre le contenu généré par l’IA dans les mécanismes d’application liés aux infractions en vertu des lois en vigueur.

Les plateformes doivent empêcher l’utilisation de leurs services pour créer ou diffuser des SGI impliquant des matériels d’abus sexuels sur des enfants, du contenu indécent ou obscène, de faux enregistrements électroniques, de l’usurpation d’identité, ou du contenu lié aux explosifs, armes ou munitions.

Protection de l’abri clarifiée

En même temps, le gouvernement a cherché à rassurer les intermédiaires sur la protection de l’abri. La notification clarifie que la suppression ou la désactivation de l’accès à des SGI, y compris par le biais d’outils automatisés et de mesures techniques, ne constituera pas une violation des conditions de protection de l’abri, à condition que ces actions soient prises en conformité avec les règles.

Signal politique sur la gouvernance de l’IA

Les amendements marquent l’une des interventions réglementaires les plus détaillées de l’Inde dans l’écosystème évolutif de l’IA et des médias synthétiques. En combinant des mandats de divulgation, des exigences de traçabilité et des délais d’application plus stricts, le gouvernement semble viser un équilibre entre innovation et prévention des dommages, tout en plaçant une responsabilité claire sur les plateformes hébergeant ou permettant du contenu synthétique.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...