Lettre d’inquiétude des procureurs généraux sur les images intimes non consensuelles générées par xAI

A vintage typewriter with its keys replaced by circuit boards and glowing LED lights, typing out a never-ending stream of indecipherable code.

35 Procureurs généraux des États adressent une lettre de préoccupation à xAI

La semaine dernière, 35 procureurs généraux des États, dont ceux du Connecticut, de la Caroline du Nord, de l’Utah et de la Pennsylvanie, ont rédigé une lettre à xAI exprimant des préoccupations concernant les images intimes non consensuelles (NCII) générées sur Grok. Bien que les procureurs généraux aient reconnu que des problèmes similaires existent sur d’autres plateformes d’IA, ils affirment que Grok mérite une attention particulière. Ils ont indiqué qu’il existe des preuves que Grok a facilité la production et la diffusion publique de telles images, le rendant facile à utiliser avec « un simple clic ».

Les procureurs généraux ont expliqué que xAI avait conçu certains comportements de chat comme « une fonctionnalité, pas un bug », en développant des modèles de texte et d’image incluant du contenu explicite tel que le mode « épicé ». La lettre décrit des rapports selon lesquels Grok a produit des milliers d’images d’enfants « en tenue minimale », alors même que les procureurs généraux avaient plaidé pour des législations rendant illégale la génération de matériel CSAM dans de nombreux États. De plus, Grok est unique en se connectant à une plateforme de médias sociaux avec une vaste base d’utilisateurs.

Les procureurs généraux ont apprécié que xAI ait récemment rencontré un groupe d’entre eux pour discuter des efforts entrepris pour prévenir et retirer les NCII et signaler à la police. Cependant, ils restent préoccupés par le fait que les problèmes ne sont pas complètement résolus. Ils ont cité, par exemple, l’absence de suppression des demandes des utilisateurs visant à retirer du contenu non consensuel. La lettre expliquait : « Ayant créé ces outils NCII, et les ayant laissés se développer pendant un certain temps, vous devez faire plus que désactiver leur utilisation. » Avec des milliards investis dans xAI, les procureurs généraux ont déclaré que l’entreprise devait consacrer « suffisamment d’attention et de ressources » pour se conformer à la loi et prévenir les dommages, de manière à créer des « normes industrielles ».

Requêtes des procureurs généraux

Pour ce faire, les procureurs généraux ont conclu avec des demandes d’informations dans le cadre d’un dialogue continu sur la manière dont l’entreprise va :

  • Prévenir la création de NCII et de CSAM via Grok (et non pas simplement les mettre derrière un mur payant)
  • Éliminer le contenu passible de retrait
  • Suspendre et signaler les créateurs aux autorités compétentes lorsque cela est approprié
  • Accorder aux utilisateurs de X le contrôle sur la possibilité que leur contenu soit modifié ou répondu par Grok

Implications et risques

Les procureurs généraux s’attendent à ce que des protections similaires soient attendues par d’autres plateformes d’IA, ce qui restera probablement un domaine clé de préoccupation pour de nombreux bureaux de procureurs généraux en 2026. Voici quelques points clés à considérer :

  1. Les procureurs généraux continuent de concentrer leur attention sur les développeurs qui créent un espace pour du contenu nuisible, en particulier s’il impacte les enfants. Bien qu’ils n’accusent pas xAI de concevoir intentionnellement la plateforme à des fins malveillantes, ils s’attendent à un niveau raisonnable de responsabilité et de supervision une fois que l’utilisation nuisible est identifiée.
  2. On peut s’attendre à ce que les législatures des États et les procureurs généraux continuent de repousser les limites pour identifier des moyens constitutionnels de réguler l’IA et son utilisation, en l’absence de directives fédérales claires et tout en naviguant dans les résultats de l’ordre exécutif de décembre concernant les réglementations étatiques.
  3. Il est notable que la plupart des États ayant signé cette lettre n’ont pas annoncé d’enquête formelle contre xAI (la Californie, qui n’a pas rejoint la lettre, est une exception notable) ; ils utilisent plutôt leur pouvoir d’écriture et de communication pour attirer l’attention sur le problème. Même là où les procureurs généraux n’ont pas de voie claire pour une action d’exécution, ils utiliseront des lettres comme celle-ci pour sensibiliser le public et provoquer un changement.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...