Qu’a établi le gouvernement sur l’étiquetage de l’IA ?
Le ministère de l’Électronique et de la Technologie de l’information a récemment notifié un amendement aux règles informatiques de 2021, qui exigera des utilisateurs et des plateformes de médias sociaux qu’ils étiquettent le contenu généré par l’IA. De plus, les délais de suppression pour tous les contenus, et pas seulement les publications générées par l’IA, passeront de 24-36 heures à deux à trois heures. Ces règles entreront en vigueur le 20 février.
Qu’en est-il du contenu généré par l’IA ?
Les règles d’amendement des directives sur les intermédiaires et le code d’éthique des médias numériques de 2026 exigent que les plateformes de médias sociaux étiquettent de manière « proéminente » le contenu « généré de manière synthétique », c’est-à-dire les images et vidéos créées par l’IA. Cette exigence a été proposée pour la première fois en octobre de l’année dernière et a été notifiée cette semaine. Les plateformes de médias sociaux comptant plus de cinq millions d’utilisateurs doivent obtenir une « déclaration de l’utilisateur [pour le contenu généré par l’IA] » et effectuer une vérification technique avant de publier ce contenu.
Le ministère a expliqué que cette exigence a été introduite pour lutter contre les « deepfakes, la désinformation et d’autres contenus illégaux susceptibles de tromper les utilisateurs, de leur causer du tort, de violer la vie privée ou de menacer l’intégrité nationale », et qu’il était important que les utilisateurs soient conscients de l’authenticité de ce qu’ils voient.
La définition préliminaire de « l’information générée de manière synthétique » était plus large, englobant tout contenu audiovisuel modifié ou généré par l’IA. Les règles finales prévoient certaines exemptions : par exemple, les photos prises avec un smartphone et retouchées automatiquement par l’application de l’appareil photo ne seront pas considérées comme SGI, et les effets spéciaux dans les films ne nécessiteront pas d’étiquetage. Les règles interdisent également certains types de SGI : matériel d’exploitation et d’abus sexuel d’enfants, documents falsifiés, informations sur le développement d’explosifs et deepfakes représentant faussement une personne réelle.
Comment le contenu généré par l’IA peut-il être détecté ?
Le gouvernement a demandé aux grandes plateformes de « déployer des mesures techniques raisonnables et appropriées pour prévenir les SGI illégaux, et pour garantir le respect des exigences d’étiquetage, de provenance et d’identification pour les SGI permis ». Un responsable senior du ministère des Technologies de l’information a soutenu que les grandes plateformes disposent d’outils sophistiqués pour détecter les SGI et que cette exigence ne fait que leur demander d’effectuer une détection qu’elles réalisent déjà. De plus, certaines entreprises d’IA et plateformes ont participé à la Coalition pour la provenance et l’authenticité du contenu, qui propose des normes techniques pour étiqueter invisiblement le contenu généré par l’IA de manière à ce qu’il puisse être lu par d’autres plateformes, au cas où la détection basée sur l’IA échouerait.
Quelles sont les modifications des délais ?
Les règles informatiques permettent à certaines autorités gouvernementales et officiers de police de délivrer des avis de retrait selon la règle 3(1)(b), et aux utilisateurs d’envoyer des plaintes pour des catégories de contenu « illégales » énumérées dans les règles informatiques. Ces catégories incluent la désinformation, la nudité et les menaces à la souveraineté. Pour les avis de retrait émis par le gouvernement ou par le tribunal, les délais ont été réduits à 2-3 heures, tandis que pour toutes les autres catégories de plaintes des utilisateurs (comme la diffamation et la désinformation), les délais de réponse ont été réduits de deux semaines à une semaine. Les délais de réponse aux rapports des utilisateurs concernant du contenu « sensible » ont également été réduits de 72 heures à 36 heures. Le gouvernement a justifié que les limites précédentes permettaient beaucoup de dommages même dans ces délais, nécessitant une révision des délais d’action des plateformes.
Quelles autres modifications ont été apportées ?
Les utilisateurs devront désormais recevoir un rappel des conditions d’utilisation des plateformes plus fréquemment. Les amendements comprennent des révisions à la règle 3(1)(c) des règles sur les intermédiaires, augmentant la fréquence des notifications aux utilisateurs d’une fois par an à au moins une fois tous les trois mois, et élargissant le contenu de ces notifications pour clarifier les conséquences potentielles de non-conformité et les obligations de signalement.
Les règles exigent également que les plateformes avertissent spécifiquement les utilisateurs que les deepfakes nuisibles et d’autres contenus générés par l’IA illégaux pourraient les exposer à des poursuites judiciaires, y compris la divulgation de leur identité aux agences d’application de la loi et la « désactivation immédiate de l’accès ou la suppression de ce contenu, la suspension ou la résiliation des comptes des utilisateurs ».