Abus des deepfakes par l’IA sur X suscite un examen mondial de la sécurité de la plateforme
Une action en justice collective déposée aux États-Unis a déclenché un nouvel examen mondial de la sécurité de l’intelligence artificielle, après que le chatbot IA de X, Grok, a été utilisé pour générer des images sexualisées non consensuelles de femmes, y compris des enfants.
Cette action, déposée le 23 janvier 2026 en Caroline du Sud, fait suite à un incident où une femme a partagé une photographie entièrement vêtue d’elle sur X. D’autres utilisateurs ont ensuite demandé à Grok, un chatbot développé par xAI, de manipuler l’image en un deepfake sexualisé. L’image altérée a circulé publiquement pendant plusieurs jours avant d’être retirée.
Les documents judiciaires indiquent que la plaignante a subi un stress émotionnel important, y compris la peur de dommages à sa réputation et à sa vie professionnelle. L’action en justice allègue que X et xAI n’ont pas mis en œuvre de mesures de sécurité adéquates pour prévenir la génération et la diffusion d’images intimes non consensuelles, qualifiant la conduite de la plateforme de « détestable ».
Conception de l’IA sous surveillance
Selon la plainte, la conception du système de Grok manquait de garde-fous de sécurité de contenu de base. L’action en justice allègue que des invites internes du système instruisent le chatbot qu’il n’a « aucune limitation » sur le contenu adulte ou offensant, sauf restriction explicite.
Les plaignants soutiennent que l’absence de garde-fous par défaut a rendu des dommages prévisibles inévitables, en particulier dans un environnement de plateforme déjà connu pour le harcèlement et les abus.
Suite à la réaction du public début janvier, xAI n’a pas immédiatement désactivé la capacité de manipulation d’image. Au lieu de cela, l’entreprise a restreint l’accès à la fonctionnalité aux utilisateurs « Premium » payants sur X. Cette décision monétise effectivement un comportement abusif plutôt que de le prévenir.
Vers une responsabilité accrue
Les autorités de plusieurs pays ont lancé des enquêtes ou émis des avertissements en relation avec Grok. Les régulateurs de l’Union européenne ont lancé des procédures formelles en vertu de la Loi sur les services numériques, examinant si X a échoué à évaluer et à atténuer les risques systémiques. D’autres pays, dont le Brésil et l’Inde, ont également pris des mesures pour contraindre xAI à cesser de générer des images sexualisées fausses.
Cette controverse a mis en évidence un échec plus large et récurrent dans la gouvernance des plateformes, à savoir le déploiement de technologies puissantes sans protections légalement contraignantes pour la dignité, le consentement et la prévention des préjudices.
Conclusion
Le cas Grok illustre les défis croissants liés à la régulation de l’IA et à la responsabilité des plateformes. À mesure que les juridictions cherchent à réglementer l’IA, il est crucial que les principes des droits humains, y compris la dignité et la vie privée, soient intégrés dès la conception, et non traités comme des contraintes optionnelles.