Enquête de l’UE sur X de Musk concernant les images sexualisées produites par Grok
Le 26 janvier, il a été annoncé que la plateforme X fait l’objet d’une enquête de l’Union européenne pour déterminer si elle diffuse du contenu illégal, suite à une réaction publique concernant la propagation d’images sexualisées manipulées par le chatbot Grok.
Contexte de l’enquête
La Commission européenne, organe exécutif de l’Union, a déclaré qu’elle examinerait si la plateforme protégeait les consommateurs en évaluant et en atténuant correctement les risques associés aux fonctionnalités de Grok. Cette enquête intervient deux semaines après qu’un régulateur britannique a lancé sa propre investigation concernant des images deepfake à caractère sexuel créées par Grok. Plusieurs pays, dont l’Indonésie et la Malaisie, ont temporairement bloqué l’accès au chatbot.
Réactions et mesures prises
La Commission a qualifié les images générées par l’IA, représentant des femmes et des enfants dénudés, d’illégales et d’odieuses. Un responsable de l’UE a déclaré que les deepfakes sexuels non consensuels étaient une forme de dégradation inacceptable.
X a rappelé qu’une déclaration faite le 14 janvier indiquait que le propriétaire de xAI avait restreint l’édition d’images pour les utilisateurs de Grok et bloqué l’accès à certains utilisateurs en fonction de leur localisation. Cela a permis à certains pays de restaurer l’accès après que des mesures de sécurité supplémentaires aient été mises en place.
Implications de la réglementation
L’enquête de la Commission, en vertu de la loi sur les services numériques de l’UE, vise à ce que les grandes entreprises technologiques prennent davantage de responsabilités pour lutter contre le contenu illégal et nuisible en ligne. Les entreprises risquent des amendes pouvant atteindre 6 % de leur chiffre d’affaires annuel mondial en cas de violations.
Bien que les mesures prises par xAI aient été accueillies positivement, elles ne résolvent pas tous les problèmes, selon un responsable. La Commission craint que X n’ait pas réalisé une évaluation adéquate lors du déploiement des fonctionnalités de Grok en Europe.
Conclusion
Cette enquête pourrait également irriter certaines administrations, car elle s’inscrit dans un contexte plus large de régulation des technologies de l’IA. Les députés européens soulignent la nécessité d’une législation proactive pour combler les lacunes dans la réglementation des technologies de l’IA.