YouTube supporta la legge No Fakes per difendere l’originalità dell’AI

YouTube supporta il ‘No Fakes Act’ contro le repliche AI non autorizzate

Il No Fakes Act, proposto dai senatori Chris Coons (D-DE) e Marsha Blackburn (R-TN), mira a standardizzare le regole relative all’uso delle copie AI dei volti, nomi e voci delle persone. YouTube ha annunciato il suo sostegno a questa legge, precedentemente introdotta nel 2023 e 2024, affermando che l’atto cerca di bilanciare la protezione con l’innovazione, dando potere agli individui di segnalare le immagini generate da AI che ritengono debbano essere rimosse.

Obiettivi del No Fakes Act

Il No Fakes Act si propone di proteggere i diritti degli individui contro l’uso improprio delle loro identità digitali. YouTube afferma che l’atto “si concentra sul miglior modo per bilanciare la protezione con l’innovazione”, consentendo agli utenti di notificare le piattaforme riguardo alle repliche non autorizzate.

Il supporto di YouTube si unisce a quello già presente di organizzazioni come SAG-AFTRA e la Recording Industry Association, nonostante le critiche da parte di gruppi per le libertà civili come l’Electronic Frontier Foundation (EFF), che ha criticato le versioni precedenti della legge per essere troppo generiche.

Dettagli della Legge

La versione del 2024 della legge stabilisce che i servizi online, come YouTube, non possono essere ritenuti responsabili per la memorizzazione di un “replica digitale non autorizzata” fornita da terzi, a patto che rimuovano il materiale in risposta a reclami di uso non autorizzato e notifichino l’uploaders della rimozione. Inoltre, la legge specifica che i servizi progettati principalmente per produrre deepfakes possono essere soggetti a responsabilità.

Impatto sulla Libertà di Espressione

Durante una conferenza stampa, il senatore Coons ha dichiarato che parte del “refresh 2.0” includeva misure per affrontare le preoccupazioni sulla libertà di espressione e limiti alla responsabilità. YouTube ha inoltre espresso il suo supporto per il Take It Down Act, che renderebbe un reato pubblicare immagini intime non consensuali, anche se generate da AI, e obbligherebbe i social media a disporre di processi per rimuovere rapidamente tali immagini quando segnalate.

Innovazioni Tecnologiche di YouTube

YouTube ha recentemente annunciato l’espansione di un programma pilota per la gestione delle immagini in partnership con CAA, che permette a celebrità e creatori di rilevare le copie AI di se stessi e inviare richieste per la rimozione dei contenuti. Tra i creatori di spicco che partecipano al programma ci sono MrBeast, Mark Rober e Marques Brownlee.

Con queste iniziative, YouTube non solo si allinea a normative più severe sulla protezione dei diritti digitali, ma si posiziona anche come leader nell’affrontare le sfide poste dall’uso abusivo della tecnologia AI nel panorama dei media digitali.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...