Le Bureau de l’IA publie son premier code de pratique sur la transparence du contenu généré par IA
Le Bureau de l’IA de l’UE a publié son premier projet de code de pratique sur la transparence du contenu généré par IA (le « Code »), fournissant des lignes directrices volontaires pour le marquage et l’étiquetage des sorties d’IA (audio, image, vidéo ou texte) afin d’assurer aux utilisateurs qu’ils savent quand le contenu est créé ou manipulé par une IA, conformément aux obligations définies dans l’article 50 de la loi sur l’IA, qui sera applicable en août 2026.
Obligations des fournisseurs de systèmes d’IA
Marquage : Les fournisseurs de systèmes d’IA doivent s’assurer que les sorties sont marquées dans un format lisible par machine et détectables comme étant générées ou manipulées artificiellement. Le contenu généré ou manipulé par IA doit être marqué avec une marque d’eau imperceptible.
Les marques sur le contenu généré par IA doivent être préservées et non altérées lorsque ce contenu est utilisé comme entrée et ensuite transformé.
Détection : Pour rendre les sorties détectables, les fournisseurs de systèmes d’IA doivent permettre la détection par les utilisateurs et d’autres tiers. Ils doivent fournir, gratuitement, une interface ou un « détecteur » disponible publiquement pour vérifier si un contenu a été généré ou manipulé par leurs systèmes d’IA. Les fournisseurs doivent maintenir ces mécanismes de détection tout au long du cycle de vie du système et du modèle.
Les fournisseurs de systèmes d’IA sont invités à mettre en œuvre des mécanismes de détection judiciaires qui ne dépendent pas de la présence de marquage actif par IA.
Les solutions techniques promues par les fournisseurs doivent être efficaces (computationally efficient), peu coûteuses, garantir une application en temps réel sans nuire à la qualité du contenu généré, être interopérables, robustes (les techniques de marquage doivent résister à des altérations courantes telles que le recadrage, la compression, les changements de résolution ou de format) et fiables.
Obligations des déployeurs de systèmes d’IA
Les obligations des déployeurs complètent les solutions techniques mises en œuvre par les fournisseurs, contribuant à accroître la transparence le long de la chaîne de valeur de l’IA.
Les déployeurs d’un système d’IA qui génère ou manipule du texte publié dans le but d’informer le public sur des questions d’intérêt (sauf si un humain a examiné la publication du texte et qu’une personne physique ou morale a assumé la responsabilité éditoriale) ou qui génèrent ou manipulent de l’audio, de l’image ou de la vidéo (deepfake) doivent divulguer que le contenu a été généré ou manipulé par IA.
Les déployeurs devront identifier le contenu généré et manipulé par IA en plaçant une icône commune à un emplacement visible et cohérent. Cette icône n’est pas encore développée et, jusqu’à ce qu’elle le soit, les déployeurs peuvent utiliser une icône intérimaire composée d’un acronyme à deux lettres faisant référence à l’intelligence artificielle.
Mesures spécifiques pour la divulgation des deepfakes
Pour les vidéos deepfake en temps réel, les déployeurs afficheront l’icône de manière non intrusive de façon cohérente tout au long de l’exposition lorsque cela est possible. De plus, ils inséreront un avertissement au début de l’exposition pour expliquer que ce contenu inclut un deepfake.
Pour les vidéos deepfake non en temps réel, les déployeurs peuvent placer un avertissement au début de l’exposition ou placer l’icône de manière cohérente à un endroit fixe approprié tout au long de l’exposition.
Concernant le contenu deepfake faisant partie d’œuvres ou programmes évidents artistiques, créatifs, satiriques ou fictifs, les déployeurs peuvent afficher l’icône pendant au moins cinq secondes. Pour les vidéos de ces œuvres ou programmes, l’icône doit apparaître pendant un « temps suffisant » sans plus de précisions.
Pour les images deepfake, les signataires placeront l’icône commune de manière cohérente à chaque exposition à un endroit fixe.
L’audio deepfake comprendra un court avertissement audible, dans un langage naturel simple, indiquant l’origine artificielle de l’audio deepfake (uniquement au début du contenu s’il est plus court que 30 secondes et de manière répétée pour des formats plus longs). Pour le contenu deepfake faisant partie d’œuvres artistiques évidentes, un avertissement audible non intrusif devrait être inséré au plus tard au moment de la première exposition sans besoin de répétition.
Mesures spécifiques pour le texte généré ou manipulé par IA
Pour le texte généré ou manipulé par IA publié dans le but d’informer le public sur des questions d’intérêt public, l’icône doit être affichée à un emplacement fixe, clair et distinctif. Cet emplacement peut inclure, mais ne se limite pas à, un positionnement en haut du texte, à côté du texte, dans le colophon ou après la phrase de clôture du texte.
Avertissement : En raison de la généralité de cette mise à jour, les informations fournies ici peuvent ne pas être applicables dans toutes les situations et ne doivent pas être mises en œuvre sans un avis légal spécifique basé sur des situations particulières.