Le gouvernement renforce les règles numériques sur l’IA et impose l’étiquetage du contenu synthétique
Le gouvernement a considérablement renforcé le cadre de gouvernance numérique en formalisant l’inclusion des informations générées synthétiquement (SGI), y compris le contenu audio, vidéo et visuel généré par l’IA, dans le cadre des règles de l’Information Technology (Intermediary Guidelines and Digital Media Ethics Code) grâce à des amendements notifiés le 10 février 2026.
Définitions claires du contenu synthétique
Pour la première fois, les règles définissent le terme « informations générées synthétiquement » comme un contenu audio, visuel ou audiovisuel créé, modifié ou altéré de manière artificielle ou algorithmique à l’aide de ressources informatiques, d’une manière qui semble réelle ou authentique, dépeignant des individus ou des événements d’une manière qui peut être indiscernable de ceux du monde réel.
Cependant, le gouvernement a prévu des exemptions explicites. L’édition, le formatage, la correction des couleurs, la réduction du bruit, la transcription, la compression, la traduction ou les améliorations liées à l’accessibilité ne seront pas considérés comme des SGI, à condition que ces modifications ne déforment pas matériellement le sens ou le contexte d’origine. De même, le contenu illustratif ou conceptuel utilisé dans des documents, des recherches ou des matériaux éducatifs a été exclu de la définition de SGI.
Étiquetage obligatoire et métadonnées
Une exigence clé de conformité sous les règles amendées est l’étiquetage obligatoire du contenu généré synthétiquement. Les intermédiaires qui permettent ou facilitent la création ou la diffusion de SGI doivent s’assurer que ce contenu est clairement, de manière proéminente et sans ambiguïté étiqueté, afin que les utilisateurs puissent immédiatement l’identifier comme synthétique.
De plus, les plateformes doivent intégrer des métadonnées persistantes ou d’autres mécanismes techniques de provenance, y compris des identifiants uniques, pour permettre la traçabilité des SGI jusqu’à la ressource informatique de l’intermédiaire, dans la mesure du possible. Il est important de noter que les intermédiaires sont interdits de permettre la suppression ou la falsification de ces étiquettes ou métadonnées.
Obligations accrues pour les grandes plateformes de médias sociaux
Les « intermédiaires de médias sociaux significatifs » font face à des obligations renforcées. Avant de permettre le téléchargement ou la publication, ces plateformes doivent obtenir des déclarations des utilisateurs indiquant si le contenu est généré synthétiquement. Elles doivent également déployer des mesures techniques raisonnables et proportionnées, y compris des outils automatisés, pour vérifier l’exactitude de ces déclarations.
Lorsque le contenu est identifié comme SGI, les plateformes doivent s’assurer qu’il est affiché avec une divulgation ou un avis approprié indiquant clairement sa nature synthétique. Le non-respect de cette diligence raisonnable pourrait exposer les plateformes à des responsabilités en vertu du cadre amendé.
Retraits plus rapides et délais plus stricts
Les amendements compressent également plusieurs délais de conformité, signalant une position plus stricte sur le contenu nuisible en ligne. Le délai pour que les intermédiaires agissent sur des ordres ou des plaintes légales dans certains cas a été réduit — de 36 heures à 3 heures dans des circonstances spécifiques — tandis que d’autres délais de réponse ont été raccourcis de 15 jours à sept jours, et de 24 heures à 12 heures, selon la nature de la violation.
Contenu synthétique explicitement lié à des actes illégaux
Les règles clarifient que toute référence à des « informations » utilisées pour commettre un acte illégal — y compris sous les obligations de diligence raisonnable des utilisateurs — inclut explicitement les informations générées synthétiquement. Cela intègre le contenu généré par l’IA dans les mécanismes d’application liés aux infractions en vertu des lois en vigueur.
Les plateformes doivent empêcher l’utilisation de leurs services pour créer ou diffuser des SGI impliquant des matériels d’abus sexuels sur des enfants, du contenu indécent ou obscène, de faux enregistrements électroniques, de l’usurpation d’identité, ou du contenu lié aux explosifs, armes ou munitions.
Protection de l’abri clarifiée
En même temps, le gouvernement a cherché à rassurer les intermédiaires sur la protection de l’abri. La notification clarifie que la suppression ou la désactivation de l’accès à des SGI, y compris par le biais d’outils automatisés et de mesures techniques, ne constituera pas une violation des conditions de protection de l’abri, à condition que ces actions soient prises en conformité avec les règles.
Signal politique sur la gouvernance de l’IA
Les amendements marquent l’une des interventions réglementaires les plus détaillées de l’Inde dans l’écosystème évolutif de l’IA et des médias synthétiques. En combinant des mandats de divulgation, des exigences de traçabilité et des délais d’application plus stricts, le gouvernement semble viser un équilibre entre innovation et prévention des dommages, tout en plaçant une responsabilité claire sur les plateformes hébergeant ou permettant du contenu synthétique.