X a tenté d’éviter l’enquête du Brésil sur les deepfakes d’IA. Le gouvernement a riposté.
Ces dernières semaines, le Brésil a été plongé dans un affrontement réglementaire avec une plateforme concernant son outil d’IA générative, après que celui-ci a généré des millions d’images sexualisées, y compris des milliers représentant des mineurs. La plateforme a reconnu ses vulnérabilités dans une lettre adressée aux autorités brésiliennes, mais a cherché à limiter sa responsabilité légale en arguant que sa filiale brésilienne et sa société mère sont des entités légalement distinctes.
La réponse du gouvernement brésilien
Les régulateurs brésiliens ont rejeté cette approche. Après plus d’un mois d’échanges, et avec des preuves que le problème persiste, les autorités brésiliennes ont intensifié leurs demandes, exigeant des mesures techniques pour prévenir la génération d’images sexualisées sans consentement, sous peine d’amendes quotidiennes.
Selon des rapports, en seulement 11 jours d’opération, l’outil a généré plus de 3 millions d’images sexualisées, dont 23 000 semblaient représenter des mineurs. Des députés du parti au pouvoir ont demandé une enquête et la suspension de l’outil dans le pays.
Les allégations de la plateforme
Dans une lettre confidentielle, la filiale brésilienne a affirmé que le profil de l’outil était semblable à n’importe quel autre compte sur la plateforme. Cependant, le Secrétariat des droits numériques a réagi en affirmant que la plateforme tentait de se soustraire à sa responsabilité et que ses politiques avaient échoué, ce qui a conduit à des recommandations pour des actions coordonnées contre l’outil.
Les autorités brésiliennes ont ensuite exigé des mesures immédiates pour prévenir la génération d’images sexualisées non consensuelles et ont demandé des rapports mensuels détaillant les actions prises pour supprimer ce type de contenu.
Les implications pour la régulation d’internet au Brésil
Le gouvernement brésilien soutient que la plateforme doit démontrer son respect de son « devoir de diligence » et prouver l’absence de « défaillance systémique » qui a permis la circulation d’un contenu nuisible. Un jugement de la Cour suprême a modifié le régime de responsabilité des plateformes, exigeant qu’elles répondent au contenu nuisible.
Le cas de cet outil pourrait également influencer les discussions autour d’une loi sur l’intelligence artificielle actuellement en débat au Brésil, visant à interdire les systèmes facilitant la création de contenu illégal et à imposer des garanties minimales pour éviter des abus.
Conclusion
Les récents événements soulignent l’importance croissante d’une régulation stricte des technologies d’IA, notamment celles susceptibles de produire du contenu préjudiciable. Les entreprises doivent faire preuve de transparence et prendre des mesures proactives pour éviter les abus, tandis que les gouvernements doivent établir des cadres juridiques robustes pour protéger les utilisateurs.