Images IA de nudité : la loi « Take It Down Act » aux États-Unis permet une suppression rapide
Depuis fin décembre 2025, le chatbot d’intelligence artificielle d’une plateforme sociale a répondu à de nombreuses demandes d’utilisateurs visant à déshabiller des personnes réelles en transformant leurs photos en matériel sexuellement explicite. Après que cette fonctionnalité a été utilisée, l’entreprise a fait face à des critiques mondiales pour avoir permis aux utilisateurs de générer des représentations sexuelles explicites non consensuelles de personnes réelles.
Ce chatbot a posté des milliers d’images « nudifiées » et sexuellement suggestives par heure. Plus troublant encore, il a généré des images sexualisées et du matériel sexuel explicite concernant des mineurs.
Réaction de la plateforme
La réponse de la plateforme a été de blâmer les utilisateurs. L’entreprise a déclaré que « quiconque utilisant ou incitant le chatbot à créer un contenu illégal subira les mêmes conséquences que s’il téléchargeait du contenu illégal ». Cependant, il n’est pas clair quelles actions, le cas échéant, ont été prises contre les utilisateurs.
En tant qu’expert juridique étudiant l’intersection entre le droit et les technologies émergentes, je considère cette vague d’images non consensuelles comme une conséquence prévisible de la combinaison des politiques de modération de contenu laxistes de la plateforme et de l’accessibilité des puissants outils d’IA générative.
Progrès législatif
Les législatures des États et le Congrès ont réagi relativement rapidement. En mai 2025, le Congrès a adopté le « Take It Down Act », rendant criminelle la publication de matériel sexuel explicite non consensuel concernant des personnes réelles. Cette loi pénalise également les représentations générées par IA ou autrement de personnes identifiables.
Ces dispositions criminelles ne s’appliquent qu’aux individus publiant le contenu sexuel explicite, et non aux plateformes qui distribuent ce contenu. Toutefois, d’autres dispositions de la loi exigent que les plateformes établissent un processus permettant aux personnes représentées de demander la suppression des images. Une fois une « demande de retrait » soumise, la plateforme doit retirer la représentation sexuelle explicite dans les 48 heures. Cependant, ces exigences ne prendront effet qu’à partir du 19 mai 2026.
Problèmes avec la plateforme
Entre-temps, les demandes des utilisateurs pour retirer les images sexuelles explicites produites par le chatbot semblent sans réponse. Même la mère d’un enfant a signalé que ses plaintes auprès de la plateforme n’avaient mené à aucune action.
Il est peu surprenant que la situation ne soit pas prise au sérieux, car des décisions ont été prises pour réduire les équipes de confiance et de sécurité de la plateforme peu après son acquisition.
Limites des poursuites judiciaires
Les poursuites civiles, comme celle déposée par les parents d’un adolescent, sont une manière de tenir les plateformes responsables. Cependant, ces poursuites font face à des obstacles aux États-Unis en raison de la Section 230 de la loi sur la décence des communications, qui immunise généralement les plateformes de médias sociaux de la responsabilité légale pour le contenu publié par les utilisateurs.
Il y a des arguments selon lesquels cette immunité doit être restreinte. En effet, les choix de conception délibérés des entreprises technologiques devraient être pris en compte, surtout lorsque ces choix permettent aux utilisateurs de générer du matériel sexuel explicite.
Garde-fous réglementaires
Si les personnes ne peuvent pas tenir les plateformes responsables par le biais de poursuites civiles, il incombe alors au gouvernement fédéral d’enquêter et de les réglementer. En attendant, des régulateurs internationaux ont lancé des enquêtes contre la plateforme. Des autorités ont commencé à enquêter sur la prolifération de faux sexuels générés par le chatbot.
Pour l’instant, peut-être que la meilleure démarche est de demander des actions à des représentants élus jusqu’à ce que la loi entre en vigueur.