YouTube supporta la legge No Fakes per difendere l’originalità dell’AI

YouTube supporta il ‘No Fakes Act’ contro le repliche AI non autorizzate

Il No Fakes Act, proposto dai senatori Chris Coons (D-DE) e Marsha Blackburn (R-TN), mira a standardizzare le regole relative all’uso delle copie AI dei volti, nomi e voci delle persone. YouTube ha annunciato il suo sostegno a questa legge, precedentemente introdotta nel 2023 e 2024, affermando che l’atto cerca di bilanciare la protezione con l’innovazione, dando potere agli individui di segnalare le immagini generate da AI che ritengono debbano essere rimosse.

Obiettivi del No Fakes Act

Il No Fakes Act si propone di proteggere i diritti degli individui contro l’uso improprio delle loro identità digitali. YouTube afferma che l’atto “si concentra sul miglior modo per bilanciare la protezione con l’innovazione”, consentendo agli utenti di notificare le piattaforme riguardo alle repliche non autorizzate.

Il supporto di YouTube si unisce a quello già presente di organizzazioni come SAG-AFTRA e la Recording Industry Association, nonostante le critiche da parte di gruppi per le libertà civili come l’Electronic Frontier Foundation (EFF), che ha criticato le versioni precedenti della legge per essere troppo generiche.

Dettagli della Legge

La versione del 2024 della legge stabilisce che i servizi online, come YouTube, non possono essere ritenuti responsabili per la memorizzazione di un “replica digitale non autorizzata” fornita da terzi, a patto che rimuovano il materiale in risposta a reclami di uso non autorizzato e notifichino l’uploaders della rimozione. Inoltre, la legge specifica che i servizi progettati principalmente per produrre deepfakes possono essere soggetti a responsabilità.

Impatto sulla Libertà di Espressione

Durante una conferenza stampa, il senatore Coons ha dichiarato che parte del “refresh 2.0” includeva misure per affrontare le preoccupazioni sulla libertà di espressione e limiti alla responsabilità. YouTube ha inoltre espresso il suo supporto per il Take It Down Act, che renderebbe un reato pubblicare immagini intime non consensuali, anche se generate da AI, e obbligherebbe i social media a disporre di processi per rimuovere rapidamente tali immagini quando segnalate.

Innovazioni Tecnologiche di YouTube

YouTube ha recentemente annunciato l’espansione di un programma pilota per la gestione delle immagini in partnership con CAA, che permette a celebrità e creatori di rilevare le copie AI di se stessi e inviare richieste per la rimozione dei contenuti. Tra i creatori di spicco che partecipano al programma ci sono MrBeast, Mark Rober e Marques Brownlee.

Con queste iniziative, YouTube non solo si allinea a normative più severe sulla protezione dei diritti digitali, ma si posiziona anche come leader nell’affrontare le sfide poste dall’uso abusivo della tecnologia AI nel panorama dei media digitali.

More Insights

Regolamentazione dell’IA: verso un futuro più sicuro nel settore assicurativo

Il Chartered Insurance Institute (CII) ha richiesto chiari quadri di responsabilità e una strategia di competenze a livello settoriale per guidare l'uso dell'intelligenza artificiale (AI) nei servizi...

Regolamentazione dell’IA nel settore MedTech in APAC

La regolamentazione dell'intelligenza artificiale (AI) nella regione Asia-Pacifico è ancora agli inizi, principalmente governata da normative esistenti progettate per altre tecnologie. Nonostante ciò...

Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Nel primo semestre del 2025, New York ha iniziato a regolare l'intelligenza artificiale (AI) a livello statale con l'introduzione di leggi per affrontare la discriminazione algoritmica, in particolare...

Gestire i Rischi dell’Intelligenza Artificiale: Un Approccio Strategico

L'articolo discute l'importanza della gestione dei rischi nell'intelligenza artificiale, evidenziando che il rischio AI può derivare da dati errati o da attacchi esterni. Utilizzare un framework di...

Comprendere l’Atto sull’Intelligenza Artificiale dell’UE

L'Unione Europea ha introdotto l'Artificial Intelligence Act (AI Act), una regolamentazione storica progettata per gestire i rischi e le opportunità delle tecnologie AI in Europa. Questo articolo...

Legge Fondamentale sull’IA in Corea: Un Nuovo Orizzonte Normativo

La Corea del Sud ha adottato la Legge di Base sull'Intelligenza Artificiale, diventando il primo mercato asiatico a stabilire un quadro normativo completo per l'IA. Questa legislazione avrà un impatto...

Intelligenza Artificiale e Regolamentazione: Preparati al Cambiamento

L'atto sull'IA dell'UE e il DORA stanno creando una nuova complessità per le entità finanziarie, richiedendo un approccio basato sul rischio. È fondamentale quantificare l'impatto finanziario delle...

Regolamentare l’IA: Sfide e Opportunità nell’Atlantico

L'intelligenza artificiale (IA) è diventata una delle forze tecnologiche più decisive del nostro tempo, con il potere di rimodellare le economie e le società. Questo capitolo esplora il momento...

Strategia Europea per l’Intelligenza Artificiale: Verso le Gigafabbriche

La Commissione Europea vuole ridurre le barriere per l'implementazione dell'intelligenza artificiale, promuovendo la costruzione di "gigafabbriche AI" per migliorare l'infrastruttura dei centri dati...