Construire la confiance dans les médias synthétiques grâce à une gouvernance responsable de l’IA
La confiance dans les écosystèmes d’information publique est cruciale pour le débat démocratique et la croissance socio-économique. Alors que les médias numériques ont élargi l’accès à l’information, ils ont également facilité la propagation de la désinformation, aggravée par l’IA générative. Bien que les médias synthétiques produits avec l’IA générative, comme les deepfakes, puissent être utilisés à des fins constructives dans des domaines tels que l’éducation et le divertissement, leur mauvaise utilisation, comme la création de contenus intimes non consensuels ou la diffusion de fausses informations, soulève d’importantes préoccupations.
Contrairement à la désinformation traditionnelle, les médias synthétiques apparaissent souvent de manière convaincante réelle et sont plus difficiles à identifier. Des études montrent que de nombreuses personnes perçoivent les médias générés par l’IA comme authentiques. Le Forum économique mondial met en garde contre les fausses informations alimentées par l’IA, qui peuvent éroder la démocratie et approfondir la polarisation sociale, représentant un risque immédiat pour l’économie mondiale. Un pays comme l’Inde est particulièrement vulnérable à ce phénomène en raison de la faible littératie numérique et de la légitimité déclinante des médias traditionnels.
Réglementation des médias synthétiques
La réglementation visant à traiter les dommages causés par les médias synthétiques évolue à l’échelle mondiale. L’Acte sur l’IA de l’Union européenne classe les deepfakes dans une catégorie de « risque limité », nécessitant des divulgations de transparence. Aux États-Unis, des législations ont été proposées pour cibler des problèmes spécifiques, comme le DEFIANCE Act pour les deepfakes explicites non consensuels et le No AI FRAUD Act pour protéger les ressemblances personnelles. Le Take It Down Act, récemment signé en loi, vise à garantir le retrait des médias synthétiques intimes non consensuels. L’Online Safety Act du Royaume-Uni criminalise la création de deepfakes intimes et impose des obligations aux plateformes de médias sociaux.
Confiance, vie privée et responsabilité
Les réglementations émergentes visant à traiter les dommages des médias synthétiques sont largement réactives, se concentrant sur des mesures telles que le retrait des contenus des plateformes de médias sociaux et l’identification des contenus synthétiques. Bien que ce soit un pas dans la bonne direction, ces mesures ne traitent pas la création de médias synthétiques malveillants et leurs associés. Même lorsque les médias sont clairement étiquetés comme artificiels, ils peuvent toujours causer de réels dommages.
Par exemple, une femme représentée dans un contenu pornographique généré par IA non consensuel peut toujours éprouver de la honte, de l’objectification sexuelle et de la détresse, même si le média comprend une mention indiquant qu’il est synthétique. De plus, la dépendance exclusive aux outils d’étiquetage présente des défis opérationnels multiples. Les outils d’étiquetage manquent souvent de précision, créant ainsi un paradoxe où des étiquettes inexactes peuvent légitimer des médias nuisibles.
Repenser la responsabilité
La gouvernance des médias synthétiques doit être spécifique au contexte, car la légalité et l’adéquation du contenu généré par l’IA dépendent souvent de la manière et du lieu où il est utilisé. Un précédent dans un cas ne peut pas être appliqué de manière indifférenciée à toutes les situations. Par exemple, un enseignant utilisant l’IA générative pour créer des médias synthétiques pour un cours d’histoire pourrait ne pas agir illégalement, tandis que quelqu’un utilisant l’IA générative pour diffuser un discours incitant à la violence pourrait avoir des implications bien plus graves.
Développer un cadre collaboratif
La dépendance exclusive aux engagements volontaires crée des problèmes significatifs, car elle échoue à établir des obligations contraignantes et laisse les opérations des systèmes d’IA opaques. Il est essentiel de définir clairement les utilisations permises et interdites en collaboration avec les parties prenantes pertinentes. Les médias synthétiques, incluant le clonage vocal, la manipulation complète du corps et la génération de texte en image, posent des défis pour une réglementation efficace.
Sans limites claires établies de manière collaborative, il existe un risque de réprimer l’expression créative légitime tout en échouant à traiter adéquatement les usages nuisibles, ce qui pourrait entraîner des incohérences réglementaires à travers les juridictions.