Transparence du contenu généré par IA : le nouveau code de pratique de l’UE

A glass prism with a digital circuit pattern etched into it, refracting light into a spectrum of colors, each color representing a different aspect of AI-generated content transparency.

Le Bureau de l’IA publie son premier code de pratique sur la transparence du contenu généré par IA

Le Bureau de l’IA de l’UE a publié son premier projet de code de pratique sur la transparence du contenu généré par IA (le « Code »), fournissant des lignes directrices volontaires pour le marquage et l’étiquetage des sorties d’IA (audio, image, vidéo ou texte) afin d’assurer aux utilisateurs qu’ils savent quand le contenu est créé ou manipulé par une IA, conformément aux obligations définies dans l’article 50 de la loi sur l’IA, qui sera applicable en août 2026.

Obligations des fournisseurs de systèmes d’IA

Marquage : Les fournisseurs de systèmes d’IA doivent s’assurer que les sorties sont marquées dans un format lisible par machine et détectables comme étant générées ou manipulées artificiellement. Le contenu généré ou manipulé par IA doit être marqué avec une marque d’eau imperceptible.

Les marques sur le contenu généré par IA doivent être préservées et non altérées lorsque ce contenu est utilisé comme entrée et ensuite transformé.

Détection : Pour rendre les sorties détectables, les fournisseurs de systèmes d’IA doivent permettre la détection par les utilisateurs et d’autres tiers. Ils doivent fournir, gratuitement, une interface ou un « détecteur » disponible publiquement pour vérifier si un contenu a été généré ou manipulé par leurs systèmes d’IA. Les fournisseurs doivent maintenir ces mécanismes de détection tout au long du cycle de vie du système et du modèle.

Les fournisseurs de systèmes d’IA sont invités à mettre en œuvre des mécanismes de détection judiciaires qui ne dépendent pas de la présence de marquage actif par IA.

Les solutions techniques promues par les fournisseurs doivent être efficaces (computationally efficient), peu coûteuses, garantir une application en temps réel sans nuire à la qualité du contenu généré, être interopérables, robustes (les techniques de marquage doivent résister à des altérations courantes telles que le recadrage, la compression, les changements de résolution ou de format) et fiables.

Obligations des déployeurs de systèmes d’IA

Les obligations des déployeurs complètent les solutions techniques mises en œuvre par les fournisseurs, contribuant à accroître la transparence le long de la chaîne de valeur de l’IA.

Les déployeurs d’un système d’IA qui génère ou manipule du texte publié dans le but d’informer le public sur des questions d’intérêt (sauf si un humain a examiné la publication du texte et qu’une personne physique ou morale a assumé la responsabilité éditoriale) ou qui génèrent ou manipulent de l’audio, de l’image ou de la vidéo (deepfake) doivent divulguer que le contenu a été généré ou manipulé par IA.

Les déployeurs devront identifier le contenu généré et manipulé par IA en plaçant une icône commune à un emplacement visible et cohérent. Cette icône n’est pas encore développée et, jusqu’à ce qu’elle le soit, les déployeurs peuvent utiliser une icône intérimaire composée d’un acronyme à deux lettres faisant référence à l’intelligence artificielle.

Mesures spécifiques pour la divulgation des deepfakes

Pour les vidéos deepfake en temps réel, les déployeurs afficheront l’icône de manière non intrusive de façon cohérente tout au long de l’exposition lorsque cela est possible. De plus, ils inséreront un avertissement au début de l’exposition pour expliquer que ce contenu inclut un deepfake.

Pour les vidéos deepfake non en temps réel, les déployeurs peuvent placer un avertissement au début de l’exposition ou placer l’icône de manière cohérente à un endroit fixe approprié tout au long de l’exposition.

Concernant le contenu deepfake faisant partie d’œuvres ou programmes évidents artistiques, créatifs, satiriques ou fictifs, les déployeurs peuvent afficher l’icône pendant au moins cinq secondes. Pour les vidéos de ces œuvres ou programmes, l’icône doit apparaître pendant un « temps suffisant » sans plus de précisions.

Pour les images deepfake, les signataires placeront l’icône commune de manière cohérente à chaque exposition à un endroit fixe.

L’audio deepfake comprendra un court avertissement audible, dans un langage naturel simple, indiquant l’origine artificielle de l’audio deepfake (uniquement au début du contenu s’il est plus court que 30 secondes et de manière répétée pour des formats plus longs). Pour le contenu deepfake faisant partie d’œuvres artistiques évidentes, un avertissement audible non intrusif devrait être inséré au plus tard au moment de la première exposition sans besoin de répétition.

Mesures spécifiques pour le texte généré ou manipulé par IA

Pour le texte généré ou manipulé par IA publié dans le but d’informer le public sur des questions d’intérêt public, l’icône doit être affichée à un emplacement fixe, clair et distinctif. Cet emplacement peut inclure, mais ne se limite pas à, un positionnement en haut du texte, à côté du texte, dans le colophon ou après la phrase de clôture du texte.

Avertissement : En raison de la généralité de cette mise à jour, les informations fournies ici peuvent ne pas être applicables dans toutes les situations et ne doivent pas être mises en œuvre sans un avis légal spécifique basé sur des situations particulières.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...