YouTube s’engage pour la protection contre les répliques IA non autorisées

A shield with a digital fingerprint

YouTube soutient le ‘No Fakes Act’ ciblant les répliques d’IA non autorisées

Le 14 avril 2025, des sénateurs américains, Chris Coons (D-DE) et Marsha Blackburn (R-TN), ont de nouveau introduit le projet de loi Nurture Originals, Foster Art, and Keep Entertainment Safe, ou NO FAKES Act. Cette législation vise à standardiser les règles concernant l’utilisation d’imitations d’IA des visages, noms et voix des individus. Ce projet de loi a maintenant le soutien d’une plateforme web majeure : YouTube.

Dans une déclaration annonçant son soutien, YouTube a affirmé que ce projet de loi “se concentre sur la meilleure façon de trouver un équilibre entre protection et innovation : en donnant directement le pouvoir aux individus d’informer les plateformes des ressemblances générées par l’IA qu’ils estiment devoir être retirées.” YouTube rejoint ainsi une liste de soutiens qui comprend déjà SAG-AFTRA et l’Association de l’industrie de l’enregistrement, malgré l’opposition de groupes de défense des libertés civiles, tels que l’Electronic Frontier Foundation (EFF), qui ont critiqué les versions précédentes comme étant trop larges.

Contexte législatif et implications

Le projet de loi NO FAKES a été précédemment présenté en 2023 et 2024, mais il a été révisé pour mieux répondre aux préoccupations relatives à la liberté d’expression et aux limites de responsabilité. La version de 2024 stipule que les services en ligne, tels que YouTube, ne peuvent pas être tenus responsables de la conservation d’une “réplique numérique non autorisée” fournie par un tiers, tant qu’ils retirent le contenu en réponse à des réclamations d’utilisation non autorisée et notifient le téléchargeur que le contenu a été retiré.

Une autre exception est si le service est “principalement conçu” ou est commercialisé pour sa capacité à produire des deepfakes. Lors d’une conférence de presse annonçant le projet de loi, le sénateur Coons a précisé que cette mise à jour incluait des mesures pour répondre aux préoccupations en matière de liberté d’expression.

Engagement de YouTube envers la sécurité des contenus

YouTube a également exprimé son soutien au Take It Down Act, qui rendrait criminel la publication d’images intimes non consensuelles, même si elles sont générées par IA. Ce projet de loi obligerait les sites de réseaux sociaux à disposer de processus pour retirer rapidement ces images lorsqu’elles sont signalées. Cependant, cette disposition a été fortement contestée par des groupes de défense des libertés civiles et même par certaines organisations qui militent contre les abus sexuels basés sur des images. Malgré cela, le projet de loi a été adopté par le Sénat et a avancé dans un comité de la Chambre des représentants la semaine dernière.

Technologie de gestion des ressemblances

En parallèle, YouTube annonce l’expansion d’un pilote de la technologie de gestion des ressemblances qu’il a présentée l’année précédente en partenariat avec CAA. Cette technologie est décrite comme un moyen pour les célébrités et les créateurs de détecter les copies d’eux-mêmes générées par l’IA et de soumettre des demandes pour retirer ces contenus. YouTube affirme que certains des créateurs de contenu les plus populaires participant actuellement au pilote incluent MrBeast, Mark Rober et Marques Brownlee.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...