Les régulateurs internationaux tracent la ligne sur les images explicites générées par l’IA
Au cours d’une seule semaine, des régulateurs sur trois continents ont agi contre des plateformes d’IA capables de générer des images explicites. Le régulateur des médias du Royaume-Uni a ouvert une enquête formelle. La Malaisie et l’Indonésie ont complètement bloqué l’accès à un outil de génération d’images IA — devenant ainsi les premiers pays à le faire. Trois sénateurs américains ont appelé Apple et Google à retirer une application IA de leurs magasins d’applications. Le message est clair : le contenu sexuellement explicite généré par IA — en particulier impliquant des mineurs — est devenu un déclencheur d’application universel.
Une ligne rouge émergente
Les actions d’application partagent un fil conducteur commun : les systèmes d’IA capables de générer des images ou du contenu intime non consensuels ou représentant des mineurs. Contrairement aux débats sur les biais de l’IA ou la transparence algorithmique, ce n’est pas un domaine où les régulateurs avancent à tâtons. Ils agissent rapidement et avec un alignement international inhabituel.
Ce schéma suit les développements nationaux. La loi sur la gouvernance responsable de l’IA du Texas, entrée en vigueur le 1er janvier 2026, interdit explicitement les systèmes d’IA développés avec l’intention de créer du matériel d’abus sexuels sur des enfants ou du contenu deepfake explicite impliquant des mineurs. Le Royaume-Uni se dirige vers la criminalisation des « applications de nudification ». La Malaisie et l’Indonésie n’ont pas attendu de nouvelles législations — elles ont simplement bloqué l’accès sous une autorité existante.
La théorie d’application est simple : les lois existantes sur la protection des consommateurs, la sécurité des enfants et l’obscénité s’appliquent au contenu généré par IA tout comme au contenu créé par des humains. Les régulateurs n’attendent pas de statuts spécifiques à l’IA.
Ce que cela signifie pour les déployeurs
Les organisations déployant des capacités de génération d’images IA — que ce soit pour des produits destinés aux consommateurs ou des outils internes — devraient évaluer leur exposition dès maintenant. La vague d’application crée plusieurs considérations concrètes :
- Révision de la politique de contenu. Si votre organisation utilise ou propose de la génération d’images IA, les politiques d’utilisation acceptables peuvent devoir interdire explicitement la génération d’images intimes non consensuelles et tout contenu représentant des mineurs dans des contextes sexuels. Les politiques sont plus efficaces lorsqu’elles sont techniquement appliquées, et non seulement contractuelles.
- Vérification d’âge. Plusieurs actions d’application citent l’insuffisance des mécanismes de vérification d’âge comme un point d’échec. Les organisations devraient évaluer si leurs mécanismes de vérification actuels sont suffisants, en particulier pour les applications destinées aux consommateurs.
- Surveillance des résultats. S’appuyer uniquement sur le filtrage des entrées est insuffisant. L’enquête britannique a spécifiquement cité des préoccupations concernant les résultats, et non seulement les demandes. Les organisations devraient envisager si elles ont une visibilité sur ce que leurs outils IA génèrent réellement.
- Diligence raisonnable des fournisseurs. Pour les organisations utilisant des API ou des plateformes de génération d’images IA tierces, les pratiques de sécurité du contenu du fournisseur sont désormais une considération matérielle. Les conditions contractuelles peuvent devoir aborder la conformité à la politique de contenu, les droits d’audit et l’indemnisation pour l’application réglementaire.
Attendez-vous à une poursuite de l’élan
La coordination internationale est remarquable. Les exigences de transparence de l’UE pour le contenu généré par IA entreront en vigueur en août 2026, y compris des obligations de filigrane et d’étiquetage. La loi sur la sécurité en ligne du Royaume-Uni impose déjà des obligations aux plateformes hébergeant du contenu généré par les utilisateurs. Les États américains continuent d’avancer des législations spécifiques à l’IA, les exigences de transparence de la Californie étant désormais en vigueur.
Pour les conseillers juridiques internes, la conclusion pratique est que les images explicites générées par IA — en particulier celles impliquant des mineurs — ne sont pas une zone grise. C’est une priorité d’application à travers les juridictions. Les organisations déployant des outils de génération d’images IA ne devraient pas attendre une assignation à comparaître ou un ordre de blocage pour évaluer leurs contrôles.