Grok, un test pour la gouvernance de l’IA
Ces dernières semaines, Grok — le système d’IA développé par xAI — a généré des images sexualisées non consenties de femmes et d’enfants sur une plateforme de médias sociaux. Cela a suscité des enquêtes et une attention formelle de la part des régulateurs dans plusieurs pays. Les responsables européens ont qualifié cette conduite d’illégale, tandis que d’autres gouvernements ont averti que la production de Grok pourrait enfreindre les lois nationales sur la criminalité et la sécurité des plateformes.
Un échec fondamental
La génération de ce type de matériel par Grok reflète un échec clair dans la conception du système, les évaluations de risque et les mécanismes de contrôle. Ces failles soulignent l’urgence de mettre en place des cadres stricts de gouvernance pour les technologies d’intelligence artificielle, afin de prévenir des usages abusifs et protéger les populations vulnérables.