Confiance et responsabilité dans les médias synthétiques

A compass

Construire la confiance dans les médias synthétiques grâce à une gouvernance responsable de l’IA

La confiance dans les écosystèmes d’information publique est cruciale pour le débat démocratique et la croissance socio-économique. Alors que les médias numériques ont élargi l’accès à l’information, ils ont également facilité la propagation de la désinformation, aggravée par l’IA générative. Bien que les médias synthétiques produits avec l’IA générative, comme les deepfakes, puissent être utilisés à des fins constructives dans des domaines tels que l’éducation et le divertissement, leur mauvaise utilisation, comme la création de contenus intimes non consensuels ou la diffusion de fausses informations, soulève d’importantes préoccupations.

Contrairement à la désinformation traditionnelle, les médias synthétiques apparaissent souvent de manière convaincante réelle et sont plus difficiles à identifier. Des études montrent que de nombreuses personnes perçoivent les médias générés par l’IA comme authentiques. Le Forum économique mondial met en garde contre les fausses informations alimentées par l’IA, qui peuvent éroder la démocratie et approfondir la polarisation sociale, représentant un risque immédiat pour l’économie mondiale. Un pays comme l’Inde est particulièrement vulnérable à ce phénomène en raison de la faible littératie numérique et de la légitimité déclinante des médias traditionnels.

Réglementation des médias synthétiques

La réglementation visant à traiter les dommages causés par les médias synthétiques évolue à l’échelle mondiale. L’Acte sur l’IA de l’Union européenne classe les deepfakes dans une catégorie de « risque limité », nécessitant des divulgations de transparence. Aux États-Unis, des législations ont été proposées pour cibler des problèmes spécifiques, comme le DEFIANCE Act pour les deepfakes explicites non consensuels et le No AI FRAUD Act pour protéger les ressemblances personnelles. Le Take It Down Act, récemment signé en loi, vise à garantir le retrait des médias synthétiques intimes non consensuels. L’Online Safety Act du Royaume-Uni criminalise la création de deepfakes intimes et impose des obligations aux plateformes de médias sociaux.

Confiance, vie privée et responsabilité

Les réglementations émergentes visant à traiter les dommages des médias synthétiques sont largement réactives, se concentrant sur des mesures telles que le retrait des contenus des plateformes de médias sociaux et l’identification des contenus synthétiques. Bien que ce soit un pas dans la bonne direction, ces mesures ne traitent pas la création de médias synthétiques malveillants et leurs associés. Même lorsque les médias sont clairement étiquetés comme artificiels, ils peuvent toujours causer de réels dommages.

Par exemple, une femme représentée dans un contenu pornographique généré par IA non consensuel peut toujours éprouver de la honte, de l’objectification sexuelle et de la détresse, même si le média comprend une mention indiquant qu’il est synthétique. De plus, la dépendance exclusive aux outils d’étiquetage présente des défis opérationnels multiples. Les outils d’étiquetage manquent souvent de précision, créant ainsi un paradoxe où des étiquettes inexactes peuvent légitimer des médias nuisibles.

Repenser la responsabilité

La gouvernance des médias synthétiques doit être spécifique au contexte, car la légalité et l’adéquation du contenu généré par l’IA dépendent souvent de la manière et du lieu où il est utilisé. Un précédent dans un cas ne peut pas être appliqué de manière indifférenciée à toutes les situations. Par exemple, un enseignant utilisant l’IA générative pour créer des médias synthétiques pour un cours d’histoire pourrait ne pas agir illégalement, tandis que quelqu’un utilisant l’IA générative pour diffuser un discours incitant à la violence pourrait avoir des implications bien plus graves.

Développer un cadre collaboratif

La dépendance exclusive aux engagements volontaires crée des problèmes significatifs, car elle échoue à établir des obligations contraignantes et laisse les opérations des systèmes d’IA opaques. Il est essentiel de définir clairement les utilisations permises et interdites en collaboration avec les parties prenantes pertinentes. Les médias synthétiques, incluant le clonage vocal, la manipulation complète du corps et la génération de texte en image, posent des défis pour une réglementation efficace.

Sans limites claires établies de manière collaborative, il existe un risque de réprimer l’expression créative légitime tout en échouant à traiter adéquatement les usages nuisibles, ce qui pourrait entraîner des incohérences réglementaires à travers les juridictions.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...