Dominer l’IA générative : Réglementation, Réalité et la Route à Suivre

A safety helmet indicating protection and safety in the deployment of AI technologies.
L’essor de l’IA générative a libéré un potentiel créatif sans précédent, mais il a également soulevé des questions essentielles concernant la réglementation et la responsabilisation. Alors que les algorithmes brouillent les frontières entre le contenu généré par l’homme et par la machine, les prochaines législations, comme l’AI Act de l’UE, visent à établir des limites claires et à garantir la transparence. Cependant, parvenir à une surveillance significative représente un défi complexe, nous obligeant à confronter des questions fondamentales sur la façon dont nous classifions, détectons et gérons les réalités créées artificiellement. Nos recherches se penchent sur les réalités pratiques de ce paysage en évolution, en analysant les pratiques actuelles et en disséquant les obstacles qui entravent une réglementation efficace.

Quelles sont les principales caractéristiques du paysage actuel des systèmes d’IA générative ?

Alors que l’IA générative continue son évolution rapide, plusieurs caractéristiques clés définissent le paysage actuel, influençant à la fois son potentiel et les défis qu’elle pose.

Aperçus technologiques fondamentaux

Les modèles d’IA générative, en particulier les systèmes texte-image (TTI), ont atteint un photoréalisme remarquable, rendant souvent difficile, même pour les experts, de distinguer le contenu généré par l’IA des images créées par l’homme. Ce bond en avant en termes de qualité découle des progrès des techniques d’apprentissage profond et de la capacité d’apprendre à partir de vastes ensembles de données non étiquetées. Ces modèles analysent les schémas dans les données d’entraînement pour générer de nouveaux contenus avec des caractéristiques similaires.

Cependant, cette capacité a un coût important. L’entraînement de ces modèles avancés nécessite d’immenses ressources informatiques et un accès à des ensembles de données massifs. Par conséquent, le développement est concentré entre les mains d’un nombre restreint de grandes entreprises technologiques et d’institutions universitaires bien financées.

Préoccupations réglementaires et de conformité

L’AI Act de l’UE est l’initiative réglementaire la plus complète à ce jour qui s’attaque aux risques posés par le contenu généré par l’IA. Ses principales exigences comprennent :

  • Filigranage lisible par machine : Toutes les sorties des systèmes d’IA générative doivent être marquées dans un format lisible par machine, détectable comme étant généré ou manipulé artificiellement. L’interopérabilité, la robustesse et la fiabilité sont des considérations clés.
  • Divulgations visibles des « deepfakes » : Les déployeurs de systèmes d’IA générative qui créent ou manipulent du contenu d’image, audio ou vidéo constituant un « deepfake » doivent clairement divulguer son origine artificielle. Cette information doit être fournie au moment de la première interaction ou exposition.

Le non-respect peut entraîner des amendes substantielles, jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial. Les règles de transparence de l’AI Act entreront en vigueur le 1er août 2026.

Implications pratiques et défis

Malgré les réglementations imminentes, la mise en œuvre du filigranage reste limitée. Une analyse de 50 systèmes d’IA générative largement utilisés révèle plusieurs tendances préoccupantes :

  • Filigranage incohérent : La mise en œuvre est incohérente et varie considérablement selon les différents fournisseurs et méthodes de déploiement.
  • Vulnérabilité des métadonnées : L’intégration de métadonnées est l’approche la plus courante, mais elle est facilement supprimable, ce qui compromet son efficacité en tant que marqueur robuste.
  • Concentration sur les systèmes de bout en bout : Les pratiques de marquage lisibles par machine se trouvent principalement dans les systèmes de bout en bout (systèmes de catégorie 1) et les fournisseurs à grande échelle (systèmes de catégorie 2). Cela suggère que les grandes organisations sont principalement préoccupées par la provenance des données ou le droit d’auteur, et pas nécessairement par la détection du « non-vrai ».
  • Évitement des marquages visibles : Les filigranes visibles restent rares, principalement en raison des préoccupations concernant l’expérience utilisateur et l’impact potentiel sur les modèles commerciaux. Lorsqu’ils sont utilisés, ils s’appliquent souvent à toutes les images générées, et pas spécifiquement aux « deepfakes », comme l’exige l’AI Act. La plupart des marquages visibles peuvent également être supprimés après paiement.

La mise en œuvre d’une divulgation appropriée pour les « deepfakes » présente un défi distinct. Elle nécessite un système distinct, probablement basé sur le NLP, pour classer les invites comme étant des « deepfakes ». Les petites organisations trouveraient cela difficile et coûteux à mettre en œuvre.

L’écosystème est également dominé par quelques acteurs majeurs. De nombreux fournisseurs de systèmes s’appuient sur une poignée de modèles, principalement de Stability AI, Black Forest Labs et OpenAI. Bien que ces fournisseurs de modèles s’efforcent d’intégrer le filigranage, ces filigranes sont souvent facilement désactivés ou ne sont pas appliqués de manière cohérente dans les systèmes basés sur l’API. Hugging Face devrait faire respecter les exigences de filigranage pour les modèles open-source hébergés par leur plateforme.

L’AI Act introduit des ambiguïtés concernant les rôles des fournisseurs, des déployeurs, des modèles et des systèmes, ce qui pourrait avoir un impact sur l’efficacité de la conformité et diviser la responsabilité à travers la chaîne d’approvisionnement complexe de l’IA générative.

Comment les obligations de transparence de l’IA Act de l’UE s’appliquent-elles dans le contexte du marquage et de la divulgation du contenu généré par l’IA ?

L’IA Act de l’UE impose la transparence pour le contenu généré par l’IA par le biais de deux mesures clés : l’intégration de marquages lisibles par machine dans les résultats générés par l’IA et la divulgation visible de l’origine artificielle des deep fakes générés par l’IA. Le non-respect peut entraîner des amendes importantes, allant jusqu’à 3 % du chiffre d’affaires annuel mondial ou 15 millions d’euros. Ces règles doivent entrer en vigueur à partir du 1er août 2026. Cependant, des défis subsistent concernant l’application pratique, l’attribution des responsabilités au sein de la chaîne d’approvisionnement de l’IA générative et les définitions précises, comme celle d’un « deep fake ».

Principales obligations en vertu de l’article 50

L’article 50 de l’IA Act de l’UE aborde spécifiquement les systèmes d’IA générative, en définissant ces obligations :

  • Marquages lisibles par machine : Les fournisseurs de systèmes d’IA générative doivent s’assurer que les résultats sont marqués dans un format lisible par machine, détectable comme générés ou manipulés artificiellement. Les solutions techniques doivent être efficaces, interopérables, robustes et fiables, dans la mesure du possible sur le plan technique et en tenant compte du type de contenu et des coûts de mise en œuvre. Les techniques telles que les filigranes, les identifications de métadonnées, les méthodes cryptographiques, la journalisation et les empreintes digitales sont répertoriées comme moyens potentiels de conformité.
  • Divulgation visible pour les deep fakes : Les déployeurs de systèmes d’IA générative générant ou manipulant du contenu d’image, audio ou vidéo constituant un deep fake doivent divulguer que le contenu a été artificiellement généré ou manipulé. Ces informations doivent être fournies aux personnes d’une manière claire et distincte lors de leur interaction ou exposition initiale. Ceci est généralement interprété comme un filigrane ou une étiquette visible directement intégrée, et pas nécessairement un message de divulgation distinct.

Bien que la loi cible les systèmes d’IA (applications ou outils web), elle ne mandate pas directement les mesures de transparence pour les modèles sous-jacents. Cependant, la deuxième version du code de pratique pour les modèles GPAI appelle à l’utilisation de filigranes pour les modèles à risque systémique à des fins d’identification et de signalement des incidents.

Scénarios pratiques et implications

Pour mieux comprendre comment ces réglementations se déroulent en pratique, considérez ces scénarios courants de déploiement de l’IA générative :

  • Systèmes intégrés de bout en bout : Organisations développant des modèles d’IA et les intégrant dans leurs applications. Ces entités agissent à la fois en tant que fournisseur et déployeur, permettant un marquage robuste pendant le développement du modèle. Les exemples sont OpenAI et Adobe.
  • Systèmes utilisant l’accès au modèle API : Systèmes tirant parti des API des fournisseurs de modèles GPAI à grande échelle. Ces fournisseurs doivent soit s’appuyer sur les fonctionnalités API existantes, soit mettre en œuvre leurs propres mesures de post-traitement pour le marquage et la divulgation.
  • Systèmes open source déployés sur Hugging Face : Systèmes construits sur des modèles open source, souvent déployés via Hugging Face. La détermination de la responsabilité de la conformité à l’IA Act dans ces cas est complexe, impliquant potentiellement Hugging Face lui-même.
  • Systèmes utilisant d’autres modèles (open source) sous leur propre marque : Organisations déployant des modèles d’IA sous leur propre marque, potentiellement sans divulguer les modèles sous-jacents. Ces fournisseurs sont soumis à toutes les exigences de transparence.

Ces différents scénarios mettent en évidence les complexités liées à l’attribution de la responsabilité et à la garantie d’une application cohérente des exigences de transparence de l’IA Act.

Défis de mise en œuvre

Les distinctions établies par l’IA Act de l’UE entre les fournisseurs, les déployeurs, les modèles et les systèmes créent des zones grises qui nécessitent une clarification. Le fardeau de la conformité aux exigences de marquage lisible par machine et de divulgation des deep fakes peut affecter de manière disproportionnée les développeurs d’applications et de sites web à petite échelle, car les organisations plus grandes et mieux financées sont généralement celles qui développent et déploient les modèles. La mise en œuvre de solutions lisibles par machine serait mieux réalisée au stade du développement du modèle. L’application des réglementations au niveau du développeur de modèles serait plus simple étant donné le nombre relativement restreint d’acteurs développant des modèles d’images avancés.

Quelles sont les implications pratiques de la mise en œuvre du filigrane et des exigences de divulgation visible pour différents types de systèmes d’IA générative ?

La loi européenne sur l’IA impose deux mesures essentielles pour les résultats de l’IA générative : des filigranes lisibles par machine pour la détection automatisée et la divulgation visible des deepfakes générés par l’IA. Le non-respect de ces exigences pourrait entraîner de lourdes amendes. Cependant, des ambiguïtés d’application pratique existent concernant l’attribution des responsabilités et les définitions de deepfakes.

Principales implications de la loi sur l’IA :

  • Exigences légales : D’ici le 1er août 2026, tous les résultats de l’IA générative doivent avoir des marquages lisibles par machine, et les deepfakes doivent être visiblement divulgués comme étant générés artificiellement.
  • Risques de responsabilité : Les entreprises de médias sociaux comme Meta pourraient être tenues responsables en vertu de la loi européenne sur les services numériques pour la diffusion de contenu généré par l’IA qui pose des risques sociétaux. Cela incite les plus grands fournisseurs à marquer le contenu généré par l’IA.
  • Risque financier : Le non-respect peut entraîner des amendes allant jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial.
  • Effondrement du modèle : La mise en œuvre d’un filigrane rigoureux contribue à atténuer le risque d’effondrement du modèle, car les modèles d’IA pourraient se dégrader s’ils sont entraînés sur du contenu généré par l’IA.

La mise en œuvre des règles de transparence de la loi sur l’IA diffère selon les scénarios de systèmes d’IA générative :

Scénarios de déploiement et implications :

Les responsabilités en matière de filigrane et de divulgation ne se limitent pas toujours à des catégories précises, mais voici une ventilation des scénarios courants :

Scénario 1 : Systèmes intégrés de bout en bout :

  • Les fournisseurs qui développent ET déploient des systèmes d’IA (comme OpenAI ou Adobe) peuvent mettre en œuvre un filigrane robuste pendant le développement du modèle.
  • Beaucoup fournissent également un accès API sans nécessairement étendre les fonctionnalités de filigrane, ce qui entraîne une application incohérente dans l’ensemble de la chaîne d’approvisionnement.
  • Les géants des médias sociaux de cette catégorie doivent également tenir compte des obligations en vertu de la loi européenne sur les services numériques et de la possibilité que les modèles GPAI soient classés à haut risque.

Scénario 2 : Systèmes utilisant l’accès au modèle API :

  • Les fournisseurs tirent parti des API des fournisseurs de modèles GPAI à grande échelle et doivent se conformer à la transparence.
  • Ils peuvent s’appuyer sur les fonctionnalités intégrées fournies par les fournisseurs de modèles ou mettre en œuvre leurs mesures de post-traitement. La création d’une solution de marquage visible pourrait être difficile s’ils veulent cibler les invites de deepfake.

Scénario 3 : Systèmes (open source) déployés sur Hugging Face :

  • Les modèles open source déployés via la plateforme Hugging Face sont confrontés à des défis en matière d’exigences de conformité.
  • La plateforme offre une interface mais n’a aucun contrôle sur le modèle. Cela rend difficile de déterminer qui assume la responsabilité de la conformité.

Scénario 4 : Systèmes utilisant d’autres modèles (open source) sous leur propre marque de commerce :

  • Les organisations utilisent des modèles d’IA d’autres organisations pour créer leurs propres produits sous leurs propres marques sans préavis approprié. En raison de ce système, il est difficile de savoir d’où proviennent les modèles open source.
  • Cela rend leur produit soumis aux mêmes obligations de transparence puisqu’ils déploient désormais leur produit sans divulguer sa source.

Ces scénarios soulignent à quel point les frontières floues entre les développeurs, les fournisseurs et les déployeurs compliquent l’application de la loi sur l’IA. Des méthodes d’inspection automatisées de la conformité sont essentielles à mesure que la loi sur l’IA entre en vigueur.

Quelles ont été les conclusions de l’analyse empirique des pratiques de filigrane et de divulgation ?

Notre analyse de 50 systèmes d’IA générative largement utilisés révèle un paysage encore loin d’être pleinement conforme aux réglementations à venir telles que l’EU AI Act. Bien que la loi impose des marquages lisibles par machine et des divulgations visibles pour certains contenus générés par l’IA, l’adoption est inégale et la mise en œuvre varie considérablement.

Principales conclusions :

  • Filigrane lisible par machine limité : Seule une minorité de fournisseurs (18 sur 50) met actuellement en œuvre un marquage lisible par machine, l’intégration de métadonnées étant la technique la plus courante mais facilement supprimable. Le filigrane caché, une approche plus robuste, est plus rare.
  • Les systèmes de bout en bout sont en tête du filigrane : Les systèmes intégrés de bout en bout (catégorie 1), où la même organisation développe le modèle et l’interface, sont plus susceptibles de mettre en œuvre des marquages lisibles par machine.
  • Les divulgations visibles sont rares : Des filigranes ou des divulgations visibles indiquant un contenu généré par l’IA n’ont été trouvés que dans 8 des 50 systèmes analysés. Il est à noter qu’ils étaient souvent appliqués à toutes les images générées, et pas seulement aux deep fakes.
  • Défis liés à la détection des deep fakes : Le fait de restreindre les divulgations visibles aux deep fakes présente un défi important, en particulier pour les petites organisations qui doivent mettre en œuvre une classification des invites basée sur le NLP.
  • Écosystème dominé par quelques acteurs : Les fournisseurs de systèmes s’appuient souvent sur une poignée de modèles de base provenant d’acteurs clés tels que Stability AI, Black Forest Labs et OpenAI. Les solutions de filigrane, même lorsqu’elles sont mises en œuvre par ces principaux fournisseurs, ne sont pas systématiquement étendues aux systèmes basés sur l’API.

Implications :

Ces conclusions soulignent la nécessité de directives réglementaires plus claires et de solutions de filigrane plus robustes et interopérables afin de garantir une application efficace de l’EU AI Act et des lois similaires. La dépendance actuelle à l’égard de métadonnées facilement supprimables et l’application incohérente du filigrane dans l’ensemble de la chaîne d’approvisionnement de l’IA générative soulèvent de sérieuses préoccupations quant à la capacité de détecter et d’étiqueter efficacement le contenu généré par l’IA.

Préoccupations réglementaires :

Les définitions d' »opérateur » et de « déployeur » de l’AI Act dans le contexte de l’IA générative restent ambiguës, ce qui entraîne des lacunes potentielles et une répartition inégale des charges de conformité. Les petits développeurs d’applications et de sites web peuvent supporter une charge disproportionnée par rapport aux grands développeurs de modèles bien financés, responsables du cœur technologique.

Points essentiels à retenir :

  • Donner la priorité à un filigrane robuste au niveau du modèle : Les développeurs de modèles devraient intégrer un filigrane robuste directement dans la phase de génération afin de faciliter la mise en œuvre pour les fournisseurs de systèmes en aval et d’augmenter le coût pour les acteurs malveillants qui suppriment ces marquages.
  • Envisager la désignation GPAI pour les modèles avancés : L’UE et d’autres organismes de réglementation devraient envisager de désigner les modèles d’images les plus avancés comme des modèles d’IA à usage général (GPAI) présentant des risques systémiques, obligeant les développeurs à prendre des mesures d’atténuation proactives telles que le filigrane.
  • Utiliser les API et les conditions de licence pour l’application : Les développeurs de modèles peuvent utiliser les API et les conditions de licence pour imposer l’utilisation du filigrane par les fournisseurs de systèmes en aval.
  • Développer des outils automatisés d’inspection de la conformité : À mesure que le nombre de systèmes d’IA générative augmente, des méthodes automatisées d’inspection de la conformité seront essentielles pour détecter le filigrane et assurer une application efficace des réglementations en matière d’IA.

Quels sont les principaux défis et les développements futurs potentiels concernant la mise en œuvre effective des réglementations de l’AI Act dans le contexte de l’IA générative ?

L’EU AI Act vise à traiter les risques liés au contenu généré par l’IA avec des marquages lisibles par machine obligatoires et des divulgations visibles pour les deepfakes. Le non-respect pourrait entraîner des amendes importantes, qui entreraient en vigueur à partir du 1er août 2026. Cependant, des ambiguïtés persistent quant à l’application pratique, en particulier en ce qui concerne la répartition des responsabilités et la définition de « deepfake ».

Principaux défis de mise en œuvre :

  • Définir ‘Deepfake’ : Le manque de clarté quant à ce qui constitue un « deepfake » crée de l’incertitude pour les déployeurs.
  • Répartition des responsabilités : La division des responsabilités à travers la chaîne d’approvisionnement complexe de l’IA générative (développeurs de modèles, développeurs en aval, fournisseurs de systèmes et déployeurs) nécessite des clarifications.

Complexités des règles de transparence :

Plus précisément, l’article 50 de l’AI Act énonce les règles de transparence qui s’appliquent aux systèmes d’IA générative :

  • Article 50(2) : Les fournisseurs doivent garantir que les sorties sont « marquées dans un format lisible par machine et détectables comme artificiellement générées ou manipulées ». Les solutions doivent être efficaces, interopérables, robustes et fiables.
  • Article 50(4) : Les déployeurs qui génèrent ou manipulent du contenu image, audio ou vidéo constituant un deepfake doivent divulguer que le contenu a été artificiellement généré ou manipulé. »
  • Visibilité : En vertu de l’article 50(5), les informations doivent être fournies « d’une manière claire et distinguable au plus tard au moment de la première interaction ou exposition ». Pour les deepfakes, cela est interprété comme incluant une marque visible sur la sortie.

Développements futurs et considérations :

Une application efficace dépendra de :

  • Contrôles de conformité automatisés : Pour gérer l’augmentation du volume, des méthodes automatisées d’inspection de la conformité sont nécessaires, qui intègrent divers mécanismes de détection.
  • Filigrane au niveau du modèle : Le filigrane lisible par machine serait idéalement mis en œuvre au stade du développement du modèle, où il pourrait être appliqué via l’API et les conditions de licence.
  • Désignation du modèle GPAI : Les modèles d’image les plus avancés pourraient être désignés comme des modèles GPAI avec un risque systémique.
  • Classification des fournisseurs d’API : Il pourrait être envisagé de classer les fournisseurs qui proposent des API de modèles prêts à l’emploi en tant que fournisseurs de systèmes d’IA.

En fin de compte, l’EU AI Act vise une mise en œuvre digne de confiance et atténue les risques liés au contenu d’IA générative, mais elle pose une ambiguïté substantielle dans la traduction de la conformité des exigences légales en produits techniques réels, ce qui peut créer des problèmes pour les déployeurs et la répartition des responsabilités avec les différentes composantes de la chaîne générative de l’IA.

Alors que l’IA générative remodèle rapidement notre monde numérique, la voie d’une innovation responsable réside dans la réduction de l’écart entre l’ambition réglementaire et la mise en œuvre pratique. Bien que l’AI Act de l’UE établisse un précédent crucial en matière de transparence et de responsabilité, son efficacité dépend de la résolution d’ambiguïtés critiques et de la promotion de solutions collaboratives à travers l’écosystème complexe de l’IA. À l’avenir, se concentrer sur un watermarking robuste au niveau du modèle, clarifier les responsabilités tout au long de la chaîne d’approvisionnement et développer des mécanismes de conformité automatisés sera essentiel pour libérer le potentiel transformationnel de l’IA générative tout en se prémunissant contre ses risques inhérents. Surmonter ces défis avec succès est primordial pour favoriser un avenir où l’IA profite à la société dans son ensemble.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...