YouTube s’engage pour la protection contre les répliques IA non autorisées

A shield with a digital fingerprint

YouTube soutient le ‘No Fakes Act’ ciblant les répliques d’IA non autorisées

Le 14 avril 2025, des sénateurs américains, Chris Coons (D-DE) et Marsha Blackburn (R-TN), ont de nouveau introduit le projet de loi Nurture Originals, Foster Art, and Keep Entertainment Safe, ou NO FAKES Act. Cette législation vise à standardiser les règles concernant l’utilisation d’imitations d’IA des visages, noms et voix des individus. Ce projet de loi a maintenant le soutien d’une plateforme web majeure : YouTube.

Dans une déclaration annonçant son soutien, YouTube a affirmé que ce projet de loi “se concentre sur la meilleure façon de trouver un équilibre entre protection et innovation : en donnant directement le pouvoir aux individus d’informer les plateformes des ressemblances générées par l’IA qu’ils estiment devoir être retirées.” YouTube rejoint ainsi une liste de soutiens qui comprend déjà SAG-AFTRA et l’Association de l’industrie de l’enregistrement, malgré l’opposition de groupes de défense des libertés civiles, tels que l’Electronic Frontier Foundation (EFF), qui ont critiqué les versions précédentes comme étant trop larges.

Contexte législatif et implications

Le projet de loi NO FAKES a été précédemment présenté en 2023 et 2024, mais il a été révisé pour mieux répondre aux préoccupations relatives à la liberté d’expression et aux limites de responsabilité. La version de 2024 stipule que les services en ligne, tels que YouTube, ne peuvent pas être tenus responsables de la conservation d’une “réplique numérique non autorisée” fournie par un tiers, tant qu’ils retirent le contenu en réponse à des réclamations d’utilisation non autorisée et notifient le téléchargeur que le contenu a été retiré.

Une autre exception est si le service est “principalement conçu” ou est commercialisé pour sa capacité à produire des deepfakes. Lors d’une conférence de presse annonçant le projet de loi, le sénateur Coons a précisé que cette mise à jour incluait des mesures pour répondre aux préoccupations en matière de liberté d’expression.

Engagement de YouTube envers la sécurité des contenus

YouTube a également exprimé son soutien au Take It Down Act, qui rendrait criminel la publication d’images intimes non consensuelles, même si elles sont générées par IA. Ce projet de loi obligerait les sites de réseaux sociaux à disposer de processus pour retirer rapidement ces images lorsqu’elles sont signalées. Cependant, cette disposition a été fortement contestée par des groupes de défense des libertés civiles et même par certaines organisations qui militent contre les abus sexuels basés sur des images. Malgré cela, le projet de loi a été adopté par le Sénat et a avancé dans un comité de la Chambre des représentants la semaine dernière.

Technologie de gestion des ressemblances

En parallèle, YouTube annonce l’expansion d’un pilote de la technologie de gestion des ressemblances qu’il a présentée l’année précédente en partenariat avec CAA. Cette technologie est décrite comme un moyen pour les célébrités et les créateurs de détecter les copies d’eux-mêmes générées par l’IA et de soumettre des demandes pour retirer ces contenus. YouTube affirme que certains des créateurs de contenu les plus populaires participant actuellement au pilote incluent MrBeast, Mark Rober et Marques Brownlee.

Articles

L’UE face aux défis de l’IA : réglementation stricte contre innovation américaine

Dans un récent épisode du podcast "Regulating AI", le Dr Cari Miller a discuté des implications mondiales du Plan d'action sur l'IA des États-Unis, soulignant l'équilibre délicat entre innovation et...

Les risques méconnus de l’IA dans les entreprises

L'IA devient de plus en plus présente dans les lieux de travail, mais de nombreuses entreprises ignorent les risques associés. Il est essentiel d'établir des principes de conformité et de gouvernance...

Investir dans la sécurité de l’IA pour un avenir responsable

La révolution de l'intelligence artificielle est désormais une réalité, transformant les industries et la vie quotidienne. Pour les investisseurs, cela représente une opportunité en or d'exploiter un...

L’impact croissant de l’IA sur la sécurité publique

Les agences de maintien de l'ordre (LEAs) utilisent de plus en plus l'intelligence artificielle (IA) pour améliorer leur fonctionnement, en particulier grâce à des capacités accrues pour la police...

Kenya à l’avant-garde de la gouvernance mondiale de l’IA

Le Kenya a remporté une victoire diplomatique majeure après que les 193 États membres des Nations Unies ont convenu à l'unanimité de créer deux institutions marquantes pour gouverner l'intelligence...

Cadre de gouvernance de l’IA : Un appel à l’action

Les parties prenantes ont appelé au développement d'un cadre de gouvernance de l'intelligence artificielle (IA) pour garantir son déploiement responsable lors de la 17e conférence annuelle de...

Nouvelles recommandations sur l’adoption de l’IA pour les responsables marketing en santé

Avec l'expansion rapide des outils d'intelligence artificielle, les directeurs marketing et autres leaders du secteur de la santé doivent mettre en place des politiques pour l'adoption et la...

Nouveau dialogue mondial sur la gouvernance de l’IA à l’ONU

L'Assemblée générale des Nations Unies a adopté une résolution visant à établir un panel scientifique international indépendant sur l'intelligence artificielle et un dialogue mondial sur la...

Menaces cybernétiques : l’essor de l’IA et ses risques pour la sécurité

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les industries, offrant aux organisations de nouveaux outils pour l'efficacité et la croissance. Cependant, leur adoption...