YouTube s’engage pour la protection contre les répliques IA non autorisées

A shield with a digital fingerprint

YouTube soutient le ‘No Fakes Act’ ciblant les répliques d’IA non autorisées

Le 14 avril 2025, des sénateurs américains, Chris Coons (D-DE) et Marsha Blackburn (R-TN), ont de nouveau introduit le projet de loi Nurture Originals, Foster Art, and Keep Entertainment Safe, ou NO FAKES Act. Cette législation vise à standardiser les règles concernant l’utilisation d’imitations d’IA des visages, noms et voix des individus. Ce projet de loi a maintenant le soutien d’une plateforme web majeure : YouTube.

Dans une déclaration annonçant son soutien, YouTube a affirmé que ce projet de loi “se concentre sur la meilleure façon de trouver un équilibre entre protection et innovation : en donnant directement le pouvoir aux individus d’informer les plateformes des ressemblances générées par l’IA qu’ils estiment devoir être retirées.” YouTube rejoint ainsi une liste de soutiens qui comprend déjà SAG-AFTRA et l’Association de l’industrie de l’enregistrement, malgré l’opposition de groupes de défense des libertés civiles, tels que l’Electronic Frontier Foundation (EFF), qui ont critiqué les versions précédentes comme étant trop larges.

Contexte législatif et implications

Le projet de loi NO FAKES a été précédemment présenté en 2023 et 2024, mais il a été révisé pour mieux répondre aux préoccupations relatives à la liberté d’expression et aux limites de responsabilité. La version de 2024 stipule que les services en ligne, tels que YouTube, ne peuvent pas être tenus responsables de la conservation d’une “réplique numérique non autorisée” fournie par un tiers, tant qu’ils retirent le contenu en réponse à des réclamations d’utilisation non autorisée et notifient le téléchargeur que le contenu a été retiré.

Une autre exception est si le service est “principalement conçu” ou est commercialisé pour sa capacité à produire des deepfakes. Lors d’une conférence de presse annonçant le projet de loi, le sénateur Coons a précisé que cette mise à jour incluait des mesures pour répondre aux préoccupations en matière de liberté d’expression.

Engagement de YouTube envers la sécurité des contenus

YouTube a également exprimé son soutien au Take It Down Act, qui rendrait criminel la publication d’images intimes non consensuelles, même si elles sont générées par IA. Ce projet de loi obligerait les sites de réseaux sociaux à disposer de processus pour retirer rapidement ces images lorsqu’elles sont signalées. Cependant, cette disposition a été fortement contestée par des groupes de défense des libertés civiles et même par certaines organisations qui militent contre les abus sexuels basés sur des images. Malgré cela, le projet de loi a été adopté par le Sénat et a avancé dans un comité de la Chambre des représentants la semaine dernière.

Technologie de gestion des ressemblances

En parallèle, YouTube annonce l’expansion d’un pilote de la technologie de gestion des ressemblances qu’il a présentée l’année précédente en partenariat avec CAA. Cette technologie est décrite comme un moyen pour les célébrités et les créateurs de détecter les copies d’eux-mêmes générées par l’IA et de soumettre des demandes pour retirer ces contenus. YouTube affirme que certains des créateurs de contenu les plus populaires participant actuellement au pilote incluent MrBeast, Mark Rober et Marques Brownlee.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...