Réglementations internationales sur l’imagerie explicite générée par l’IA

A shattered digital mirror reflecting a fragmented, pixelated landscape

Les régulateurs internationaux tracent la ligne sur les images explicites générées par l’IA

Au cours d’une seule semaine, des régulateurs sur trois continents ont agi contre des plateformes d’IA capables de générer des images explicites. Le régulateur des médias du Royaume-Uni a ouvert une enquête formelle. La Malaisie et l’Indonésie ont complètement bloqué l’accès à un outil de génération d’images IA — devenant ainsi les premiers pays à le faire. Trois sénateurs américains ont appelé Apple et Google à retirer une application IA de leurs magasins d’applications. Le message est clair : le contenu sexuellement explicite généré par IA — en particulier impliquant des mineurs — est devenu un déclencheur d’application universel.

Une ligne rouge émergente

Les actions d’application partagent un fil conducteur commun : les systèmes d’IA capables de générer des images ou du contenu intime non consensuels ou représentant des mineurs. Contrairement aux débats sur les biais de l’IA ou la transparence algorithmique, ce n’est pas un domaine où les régulateurs avancent à tâtons. Ils agissent rapidement et avec un alignement international inhabituel.

Ce schéma suit les développements nationaux. La loi sur la gouvernance responsable de l’IA du Texas, entrée en vigueur le 1er janvier 2026, interdit explicitement les systèmes d’IA développés avec l’intention de créer du matériel d’abus sexuels sur des enfants ou du contenu deepfake explicite impliquant des mineurs. Le Royaume-Uni se dirige vers la criminalisation des « applications de nudification ». La Malaisie et l’Indonésie n’ont pas attendu de nouvelles législations — elles ont simplement bloqué l’accès sous une autorité existante.

La théorie d’application est simple : les lois existantes sur la protection des consommateurs, la sécurité des enfants et l’obscénité s’appliquent au contenu généré par IA tout comme au contenu créé par des humains. Les régulateurs n’attendent pas de statuts spécifiques à l’IA.

Ce que cela signifie pour les déployeurs

Les organisations déployant des capacités de génération d’images IA — que ce soit pour des produits destinés aux consommateurs ou des outils internes — devraient évaluer leur exposition dès maintenant. La vague d’application crée plusieurs considérations concrètes :

  • Révision de la politique de contenu. Si votre organisation utilise ou propose de la génération d’images IA, les politiques d’utilisation acceptables peuvent devoir interdire explicitement la génération d’images intimes non consensuelles et tout contenu représentant des mineurs dans des contextes sexuels. Les politiques sont plus efficaces lorsqu’elles sont techniquement appliquées, et non seulement contractuelles.
  • Vérification d’âge. Plusieurs actions d’application citent l’insuffisance des mécanismes de vérification d’âge comme un point d’échec. Les organisations devraient évaluer si leurs mécanismes de vérification actuels sont suffisants, en particulier pour les applications destinées aux consommateurs.
  • Surveillance des résultats. S’appuyer uniquement sur le filtrage des entrées est insuffisant. L’enquête britannique a spécifiquement cité des préoccupations concernant les résultats, et non seulement les demandes. Les organisations devraient envisager si elles ont une visibilité sur ce que leurs outils IA génèrent réellement.
  • Diligence raisonnable des fournisseurs. Pour les organisations utilisant des API ou des plateformes de génération d’images IA tierces, les pratiques de sécurité du contenu du fournisseur sont désormais une considération matérielle. Les conditions contractuelles peuvent devoir aborder la conformité à la politique de contenu, les droits d’audit et l’indemnisation pour l’application réglementaire.

Attendez-vous à une poursuite de l’élan

La coordination internationale est remarquable. Les exigences de transparence de l’UE pour le contenu généré par IA entreront en vigueur en août 2026, y compris des obligations de filigrane et d’étiquetage. La loi sur la sécurité en ligne du Royaume-Uni impose déjà des obligations aux plateformes hébergeant du contenu généré par les utilisateurs. Les États américains continuent d’avancer des législations spécifiques à l’IA, les exigences de transparence de la Californie étant désormais en vigueur.

Pour les conseillers juridiques internes, la conclusion pratique est que les images explicites générées par IA — en particulier celles impliquant des mineurs — ne sont pas une zone grise. C’est une priorité d’application à travers les juridictions. Les organisations déployant des outils de génération d’images IA ne devraient pas attendre une assignation à comparaître ou un ordre de blocage pour évaluer leurs contrôles.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...