Confiance et responsabilité dans les médias synthétiques

A compass

Construire la confiance dans les médias synthétiques grâce à une gouvernance responsable de l’IA

La confiance dans les écosystèmes d’information publique est cruciale pour le débat démocratique et la croissance socio-économique. Alors que les médias numériques ont élargi l’accès à l’information, ils ont également facilité la propagation de la désinformation, aggravée par l’IA générative. Bien que les médias synthétiques produits avec l’IA générative, comme les deepfakes, puissent être utilisés à des fins constructives dans des domaines tels que l’éducation et le divertissement, leur mauvaise utilisation, comme la création de contenus intimes non consensuels ou la diffusion de fausses informations, soulève d’importantes préoccupations.

Contrairement à la désinformation traditionnelle, les médias synthétiques apparaissent souvent de manière convaincante réelle et sont plus difficiles à identifier. Des études montrent que de nombreuses personnes perçoivent les médias générés par l’IA comme authentiques. Le Forum économique mondial met en garde contre les fausses informations alimentées par l’IA, qui peuvent éroder la démocratie et approfondir la polarisation sociale, représentant un risque immédiat pour l’économie mondiale. Un pays comme l’Inde est particulièrement vulnérable à ce phénomène en raison de la faible littératie numérique et de la légitimité déclinante des médias traditionnels.

Réglementation des médias synthétiques

La réglementation visant à traiter les dommages causés par les médias synthétiques évolue à l’échelle mondiale. L’Acte sur l’IA de l’Union européenne classe les deepfakes dans une catégorie de « risque limité », nécessitant des divulgations de transparence. Aux États-Unis, des législations ont été proposées pour cibler des problèmes spécifiques, comme le DEFIANCE Act pour les deepfakes explicites non consensuels et le No AI FRAUD Act pour protéger les ressemblances personnelles. Le Take It Down Act, récemment signé en loi, vise à garantir le retrait des médias synthétiques intimes non consensuels. L’Online Safety Act du Royaume-Uni criminalise la création de deepfakes intimes et impose des obligations aux plateformes de médias sociaux.

Confiance, vie privée et responsabilité

Les réglementations émergentes visant à traiter les dommages des médias synthétiques sont largement réactives, se concentrant sur des mesures telles que le retrait des contenus des plateformes de médias sociaux et l’identification des contenus synthétiques. Bien que ce soit un pas dans la bonne direction, ces mesures ne traitent pas la création de médias synthétiques malveillants et leurs associés. Même lorsque les médias sont clairement étiquetés comme artificiels, ils peuvent toujours causer de réels dommages.

Par exemple, une femme représentée dans un contenu pornographique généré par IA non consensuel peut toujours éprouver de la honte, de l’objectification sexuelle et de la détresse, même si le média comprend une mention indiquant qu’il est synthétique. De plus, la dépendance exclusive aux outils d’étiquetage présente des défis opérationnels multiples. Les outils d’étiquetage manquent souvent de précision, créant ainsi un paradoxe où des étiquettes inexactes peuvent légitimer des médias nuisibles.

Repenser la responsabilité

La gouvernance des médias synthétiques doit être spécifique au contexte, car la légalité et l’adéquation du contenu généré par l’IA dépendent souvent de la manière et du lieu où il est utilisé. Un précédent dans un cas ne peut pas être appliqué de manière indifférenciée à toutes les situations. Par exemple, un enseignant utilisant l’IA générative pour créer des médias synthétiques pour un cours d’histoire pourrait ne pas agir illégalement, tandis que quelqu’un utilisant l’IA générative pour diffuser un discours incitant à la violence pourrait avoir des implications bien plus graves.

Développer un cadre collaboratif

La dépendance exclusive aux engagements volontaires crée des problèmes significatifs, car elle échoue à établir des obligations contraignantes et laisse les opérations des systèmes d’IA opaques. Il est essentiel de définir clairement les utilisations permises et interdites en collaboration avec les parties prenantes pertinentes. Les médias synthétiques, incluant le clonage vocal, la manipulation complète du corps et la génération de texte en image, posent des défis pour une réglementation efficace.

Sans limites claires établies de manière collaborative, il existe un risque de réprimer l’expression créative légitime tout en échouant à traiter adéquatement les usages nuisibles, ce qui pourrait entraîner des incohérences réglementaires à travers les juridictions.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...