Grok, Deepfakes et l’effondrement de la distinction entre contenu et capacité
Les récentes réponses réglementaires concernant le modèle de langage de grande taille (LLM) Grok, en lien avec son utilisation pour générer des deepfakes, révèlent un problème plus intéressant que le simple constat que de nombreuses entreprises technologiques agissent mal. Elles mettent en lumière un décalage entre la façon dont les cadres de régulation des plateformes ont été conçus et le fonctionnement de l’IA générative lorsqu’elle est intégrée dans les plateformes par les fournisseurs eux-mêmes : les suppressions de contenu ex-post et les sanctions à l’égard des utilisateurs ne sont plus suffisantes.
Des procureurs en France ont récemment ouvert une enquête suite à la circulation de contenus générés par IA, tandis que l’Ofcom britannique a traité Grok comme un système soumis à des obligations de conception ex-ante sous la Loi sur la sécurité en ligne. Des régulateurs en Australie, au Brésil, au Canada, au Japon, en Inde et ailleurs ont également exercé des pressions sur diverses entreprises en invoquant des règles sectorielles existantes. Ces réponses suggèrent qu’une grande partie de la régulation efficace de l’IA, à l’heure actuelle, proviendra non pas de cadres spécifiques à l’IA, mais de l’application de règles sectorielles existantes à de nouvelles capacités.
Le problème d’architecture que la politique de contenu ne peut pas résoudre
La gouvernance traditionnelle des plateformes repose sur une séparation : la plateforme fournit des capacités (hébergement, recherche, curation, recommandations) et les utilisateurs génèrent du contenu. La régulation des capacités impose des restrictions, telles que des exclusions de données d’entraînement et des fonctionnalités de sécurité, sur ce que le système peut faire. La régulation de contenu se compose de règles concernant les résultats, telles que la suppression de publications, le marquage et le déclassement. Ce modèle de gouvernance suppose que la plateforme est un intermédiaire de contenu, peu importe si elle agit de manière neutre (comme un marteau qui ne se soucie pas de savoir si vous construisez une maison ou brisez une fenêtre) ou non (par exemple, en déclassant un type de contenu ou en l’interdisant selon les directives communautaires).
Lorsque Grok a été intégré à une plateforme, cette distinction a été effondrée. Plusieurs médias ont rapporté que Grok générait des deepfakes sexualisés non consensuels de personnes réelles, y compris des mineurs. Le modèle, et par extension la plateforme, ne se contente pas d’héberger ou de transmettre du contenu nuisible créé indépendamment par les utilisateurs ; sa capacité à générer ce contenu est la cause immédiate de son existence. Ainsi, lorsque Grok génère des images réalistes non consensuelles de femmes après avoir été sollicité par un utilisateur, le manuel de modération de contenu standard — détecter, supprimer, sanctionner l’utilisateur — passe à côté du problème. La capacité de produire facilement des résultats illégaux avec des instructions triviales constitue une violation des droits liés au contenu, et nécessite une intervention directe.
Les insuffisances du géoblocage pour les problèmes de capacité
La réponse de certaines plateformes face aux résultats de Grok, qui consiste à géobloquer certains prompts dans certaines juridictions, est intéressante mais manifestement inadéquate. Lorsque les dommages sont liés aux capacités, une atténuation adéquate nécessite des contrôles au niveau de la génération elle-même, plutôt que des filtres territoriaux appliqués a posteriori.
Cette situation est plus large que Grok. Elle questionne la manière dont la technologie, y compris les LLM, sape les approches territoriales de la gouvernance du contenu. Lorsqu’il est possible de générer du contenu synthétique nuisible représentant n’importe qui, n’importe où, les outils traditionnels d’application de la loi perdent leur efficacité.
Implications pour l’avenir réglementaire
La mobilisation rapide des régulateurs pour traiter les capacités de Grok, comme cela a été observé dans divers pays, révèle ce qui se passe lorsque des dommages établis, tels que les images intimes non consensuelles, rencontrent de nouveaux mécanismes de production sans garde-fous. Cela indique que beaucoup de la régulation efficace de l’IA pourrait venir non pas de cadres généraux spécifiques à l’IA, mais de l’application de lois existantes sur les préjudices aux nouvelles capacités.
Conclusion
Le cas de Grok suggère que la gouvernance de l’IA se bifurque en deux voies distinctes : une voie rapide, axée sur des réponses spécifiques aux préjudices, et une voie plus lente, axée sur des risques systémiques à long terme. En fin de compte, la question centrale devient celle de savoir si cette capacité de génération devrait exister sans contrôles proportionnés.