Règlementation sur l’étiquetage de l’IA : ce que dit le gouvernement

A digital hourglass with binary code flowing through it

Qu’a établi le gouvernement sur l’étiquetage de l’IA ?

Le ministère de l’Électronique et de la Technologie de l’information a récemment notifié un amendement aux règles informatiques de 2021, qui exigera des utilisateurs et des plateformes de médias sociaux qu’ils étiquettent le contenu généré par l’IA. De plus, les délais de suppression pour tous les contenus, et pas seulement les publications générées par l’IA, passeront de 24-36 heures à deux à trois heures. Ces règles entreront en vigueur le 20 février.

Qu’en est-il du contenu généré par l’IA ?

Les règles d’amendement des directives sur les intermédiaires et le code d’éthique des médias numériques de 2026 exigent que les plateformes de médias sociaux étiquettent de manière « proéminente » le contenu « généré de manière synthétique », c’est-à-dire les images et vidéos créées par l’IA. Cette exigence a été proposée pour la première fois en octobre de l’année dernière et a été notifiée cette semaine. Les plateformes de médias sociaux comptant plus de cinq millions d’utilisateurs doivent obtenir une « déclaration de l’utilisateur [pour le contenu généré par l’IA] » et effectuer une vérification technique avant de publier ce contenu.

Le ministère a expliqué que cette exigence a été introduite pour lutter contre les « deepfakes, la désinformation et d’autres contenus illégaux susceptibles de tromper les utilisateurs, de leur causer du tort, de violer la vie privée ou de menacer l’intégrité nationale », et qu’il était important que les utilisateurs soient conscients de l’authenticité de ce qu’ils voient.

La définition préliminaire de « l’information générée de manière synthétique » était plus large, englobant tout contenu audiovisuel modifié ou généré par l’IA. Les règles finales prévoient certaines exemptions : par exemple, les photos prises avec un smartphone et retouchées automatiquement par l’application de l’appareil photo ne seront pas considérées comme SGI, et les effets spéciaux dans les films ne nécessiteront pas d’étiquetage. Les règles interdisent également certains types de SGI : matériel d’exploitation et d’abus sexuel d’enfants, documents falsifiés, informations sur le développement d’explosifs et deepfakes représentant faussement une personne réelle.

Comment le contenu généré par l’IA peut-il être détecté ?

Le gouvernement a demandé aux grandes plateformes de « déployer des mesures techniques raisonnables et appropriées pour prévenir les SGI illégaux, et pour garantir le respect des exigences d’étiquetage, de provenance et d’identification pour les SGI permis ». Un responsable senior du ministère des Technologies de l’information a soutenu que les grandes plateformes disposent d’outils sophistiqués pour détecter les SGI et que cette exigence ne fait que leur demander d’effectuer une détection qu’elles réalisent déjà. De plus, certaines entreprises d’IA et plateformes ont participé à la Coalition pour la provenance et l’authenticité du contenu, qui propose des normes techniques pour étiqueter invisiblement le contenu généré par l’IA de manière à ce qu’il puisse être lu par d’autres plateformes, au cas où la détection basée sur l’IA échouerait.

Quelles sont les modifications des délais ?

Les règles informatiques permettent à certaines autorités gouvernementales et officiers de police de délivrer des avis de retrait selon la règle 3(1)(b), et aux utilisateurs d’envoyer des plaintes pour des catégories de contenu « illégales » énumérées dans les règles informatiques. Ces catégories incluent la désinformation, la nudité et les menaces à la souveraineté. Pour les avis de retrait émis par le gouvernement ou par le tribunal, les délais ont été réduits à 2-3 heures, tandis que pour toutes les autres catégories de plaintes des utilisateurs (comme la diffamation et la désinformation), les délais de réponse ont été réduits de deux semaines à une semaine. Les délais de réponse aux rapports des utilisateurs concernant du contenu « sensible » ont également été réduits de 72 heures à 36 heures. Le gouvernement a justifié que les limites précédentes permettaient beaucoup de dommages même dans ces délais, nécessitant une révision des délais d’action des plateformes.

Quelles autres modifications ont été apportées ?

Les utilisateurs devront désormais recevoir un rappel des conditions d’utilisation des plateformes plus fréquemment. Les amendements comprennent des révisions à la règle 3(1)(c) des règles sur les intermédiaires, augmentant la fréquence des notifications aux utilisateurs d’une fois par an à au moins une fois tous les trois mois, et élargissant le contenu de ces notifications pour clarifier les conséquences potentielles de non-conformité et les obligations de signalement.

Les règles exigent également que les plateformes avertissent spécifiquement les utilisateurs que les deepfakes nuisibles et d’autres contenus générés par l’IA illégaux pourraient les exposer à des poursuites judiciaires, y compris la divulgation de leur identité aux agences d’application de la loi et la « désactivation immédiate de l’accès ou la suppression de ce contenu, la suspension ou la résiliation des comptes des utilisateurs ».

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...