YouTube s’engage pour la protection contre les répliques IA non autorisées

A shield with a digital fingerprint

YouTube soutient le ‘No Fakes Act’ ciblant les répliques d’IA non autorisées

Le 14 avril 2025, des sénateurs américains, Chris Coons (D-DE) et Marsha Blackburn (R-TN), ont de nouveau introduit le projet de loi Nurture Originals, Foster Art, and Keep Entertainment Safe, ou NO FAKES Act. Cette législation vise à standardiser les règles concernant l’utilisation d’imitations d’IA des visages, noms et voix des individus. Ce projet de loi a maintenant le soutien d’une plateforme web majeure : YouTube.

Dans une déclaration annonçant son soutien, YouTube a affirmé que ce projet de loi “se concentre sur la meilleure façon de trouver un équilibre entre protection et innovation : en donnant directement le pouvoir aux individus d’informer les plateformes des ressemblances générées par l’IA qu’ils estiment devoir être retirées.” YouTube rejoint ainsi une liste de soutiens qui comprend déjà SAG-AFTRA et l’Association de l’industrie de l’enregistrement, malgré l’opposition de groupes de défense des libertés civiles, tels que l’Electronic Frontier Foundation (EFF), qui ont critiqué les versions précédentes comme étant trop larges.

Contexte législatif et implications

Le projet de loi NO FAKES a été précédemment présenté en 2023 et 2024, mais il a été révisé pour mieux répondre aux préoccupations relatives à la liberté d’expression et aux limites de responsabilité. La version de 2024 stipule que les services en ligne, tels que YouTube, ne peuvent pas être tenus responsables de la conservation d’une “réplique numérique non autorisée” fournie par un tiers, tant qu’ils retirent le contenu en réponse à des réclamations d’utilisation non autorisée et notifient le téléchargeur que le contenu a été retiré.

Une autre exception est si le service est “principalement conçu” ou est commercialisé pour sa capacité à produire des deepfakes. Lors d’une conférence de presse annonçant le projet de loi, le sénateur Coons a précisé que cette mise à jour incluait des mesures pour répondre aux préoccupations en matière de liberté d’expression.

Engagement de YouTube envers la sécurité des contenus

YouTube a également exprimé son soutien au Take It Down Act, qui rendrait criminel la publication d’images intimes non consensuelles, même si elles sont générées par IA. Ce projet de loi obligerait les sites de réseaux sociaux à disposer de processus pour retirer rapidement ces images lorsqu’elles sont signalées. Cependant, cette disposition a été fortement contestée par des groupes de défense des libertés civiles et même par certaines organisations qui militent contre les abus sexuels basés sur des images. Malgré cela, le projet de loi a été adopté par le Sénat et a avancé dans un comité de la Chambre des représentants la semaine dernière.

Technologie de gestion des ressemblances

En parallèle, YouTube annonce l’expansion d’un pilote de la technologie de gestion des ressemblances qu’il a présentée l’année précédente en partenariat avec CAA. Cette technologie est décrite comme un moyen pour les célébrités et les créateurs de détecter les copies d’eux-mêmes générées par l’IA et de soumettre des demandes pour retirer ces contenus. YouTube affirme que certains des créateurs de contenu les plus populaires participant actuellement au pilote incluent MrBeast, Mark Rober et Marques Brownlee.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...