YouTube supporta la legge No Fakes per difendere l’originalità dell’AI

YouTube supporta il ‘No Fakes Act’ contro le repliche AI non autorizzate

Il No Fakes Act, proposto dai senatori Chris Coons (D-DE) e Marsha Blackburn (R-TN), mira a standardizzare le regole relative all’uso delle copie AI dei volti, nomi e voci delle persone. YouTube ha annunciato il suo sostegno a questa legge, precedentemente introdotta nel 2023 e 2024, affermando che l’atto cerca di bilanciare la protezione con l’innovazione, dando potere agli individui di segnalare le immagini generate da AI che ritengono debbano essere rimosse.

Obiettivi del No Fakes Act

Il No Fakes Act si propone di proteggere i diritti degli individui contro l’uso improprio delle loro identità digitali. YouTube afferma che l’atto “si concentra sul miglior modo per bilanciare la protezione con l’innovazione”, consentendo agli utenti di notificare le piattaforme riguardo alle repliche non autorizzate.

Il supporto di YouTube si unisce a quello già presente di organizzazioni come SAG-AFTRA e la Recording Industry Association, nonostante le critiche da parte di gruppi per le libertà civili come l’Electronic Frontier Foundation (EFF), che ha criticato le versioni precedenti della legge per essere troppo generiche.

Dettagli della Legge

La versione del 2024 della legge stabilisce che i servizi online, come YouTube, non possono essere ritenuti responsabili per la memorizzazione di un “replica digitale non autorizzata” fornita da terzi, a patto che rimuovano il materiale in risposta a reclami di uso non autorizzato e notifichino l’uploaders della rimozione. Inoltre, la legge specifica che i servizi progettati principalmente per produrre deepfakes possono essere soggetti a responsabilità.

Impatto sulla Libertà di Espressione

Durante una conferenza stampa, il senatore Coons ha dichiarato che parte del “refresh 2.0” includeva misure per affrontare le preoccupazioni sulla libertà di espressione e limiti alla responsabilità. YouTube ha inoltre espresso il suo supporto per il Take It Down Act, che renderebbe un reato pubblicare immagini intime non consensuali, anche se generate da AI, e obbligherebbe i social media a disporre di processi per rimuovere rapidamente tali immagini quando segnalate.

Innovazioni Tecnologiche di YouTube

YouTube ha recentemente annunciato l’espansione di un programma pilota per la gestione delle immagini in partnership con CAA, che permette a celebrità e creatori di rilevare le copie AI di se stessi e inviare richieste per la rimozione dei contenuti. Tra i creatori di spicco che partecipano al programma ci sono MrBeast, Mark Rober e Marques Brownlee.

Con queste iniziative, YouTube non solo si allinea a normative più severe sulla protezione dei diritti digitali, ma si posiziona anche come leader nell’affrontare le sfide poste dall’uso abusivo della tecnologia AI nel panorama dei media digitali.

More Insights

Rischi e opportunità nell’era dell’AI: Un confronto tra l’UE e gli Stati Uniti

In un recente episodio del podcast "Regulating AI", la Dott.ssa Cari Miller ha discusso le complessità del Piano d'Azione sull'IA degli Stati Uniti, enfatizzando l'urgenza della regolamentazione nelle...

Rischi invisibili dell’IA nei luoghi di lavoro

L'adozione dell'IA nelle aziende sta cambiando radicalmente il modo di lavorare, ma molte organizzazioni non sono pronte a gestire i rischi associati. È fondamentale che le aziende stabiliscano...

Investire nella Sicurezza dell’IA: Una Nuova Era di Opportunità

La rivoluzione dell'intelligenza artificiale è qui e sta rimodellando industrie e vite quotidiane. Per gli investitori, questo non è solo un problema etico, ma un'opportunità d'oro per capitalizzare...

Il Ruolo dell’IA nella Polizia Moderna

Le agenzie di applicazione della legge (LEA) stanno utilizzando sempre più l'intelligenza artificiale (AI) per migliorare le loro funzioni, in particolare con capacità avanzate per il policing...

Kenya guida il cambiamento nella governance dell’IA alle Nazioni Unite

Il Kenya ha ottenuto una vittoria diplomatica importante dopo che tutti i 193 Stati membri delle Nazioni Unite hanno concordato all'unanimità di istituire due istituzioni fondamentali per governare...

Guida all’adozione responsabile dell’IA per i leader sanitari

Con l'espansione rapida degli strumenti di intelligenza artificiale, i CMO e altri leader sanitari devono avere politiche in atto per l'adozione e la governance degli strumenti AI. L'American Medical...

Il futuro della governance dell’IA: il nuovo pannello scientifico delle Nazioni Unite

Le Nazioni Unite hanno adottato una risoluzione per istituire un Panel Scientifico Internazionale Indipendente sull'Intelligenza Artificiale e un Dialogo Globale sulla Governance dell'IA. Questo panel...

Minacce informatiche emergenti: dall’avvelenamento dei dati agli agenti AI

Le nuove minacce informatiche derivano dall'uso dell'intelligenza artificiale, con un aumento del 223% delle applicazioni di IA generativa nel dark web. Gli attacchi informatici possono includere il...

Etica e governance dell’IA nell’ASEAN

In questo articolo, Nguyen Hoang Minh Ngoc esplora il panorama attuale della governance e dell'etica dell'IA nel Sud-est asiatico. Viene sottolineata l'importanza di un quadro di governance robusto...