YouTube supporta la legge No Fakes per difendere l’originalità dell’AI

YouTube supporta il ‘No Fakes Act’ contro le repliche AI non autorizzate

Il No Fakes Act, proposto dai senatori Chris Coons (D-DE) e Marsha Blackburn (R-TN), mira a standardizzare le regole relative all’uso delle copie AI dei volti, nomi e voci delle persone. YouTube ha annunciato il suo sostegno a questa legge, precedentemente introdotta nel 2023 e 2024, affermando che l’atto cerca di bilanciare la protezione con l’innovazione, dando potere agli individui di segnalare le immagini generate da AI che ritengono debbano essere rimosse.

Obiettivi del No Fakes Act

Il No Fakes Act si propone di proteggere i diritti degli individui contro l’uso improprio delle loro identità digitali. YouTube afferma che l’atto “si concentra sul miglior modo per bilanciare la protezione con l’innovazione”, consentendo agli utenti di notificare le piattaforme riguardo alle repliche non autorizzate.

Il supporto di YouTube si unisce a quello già presente di organizzazioni come SAG-AFTRA e la Recording Industry Association, nonostante le critiche da parte di gruppi per le libertà civili come l’Electronic Frontier Foundation (EFF), che ha criticato le versioni precedenti della legge per essere troppo generiche.

Dettagli della Legge

La versione del 2024 della legge stabilisce che i servizi online, come YouTube, non possono essere ritenuti responsabili per la memorizzazione di un “replica digitale non autorizzata” fornita da terzi, a patto che rimuovano il materiale in risposta a reclami di uso non autorizzato e notifichino l’uploaders della rimozione. Inoltre, la legge specifica che i servizi progettati principalmente per produrre deepfakes possono essere soggetti a responsabilità.

Impatto sulla Libertà di Espressione

Durante una conferenza stampa, il senatore Coons ha dichiarato che parte del “refresh 2.0” includeva misure per affrontare le preoccupazioni sulla libertà di espressione e limiti alla responsabilità. YouTube ha inoltre espresso il suo supporto per il Take It Down Act, che renderebbe un reato pubblicare immagini intime non consensuali, anche se generate da AI, e obbligherebbe i social media a disporre di processi per rimuovere rapidamente tali immagini quando segnalate.

Innovazioni Tecnologiche di YouTube

YouTube ha recentemente annunciato l’espansione di un programma pilota per la gestione delle immagini in partnership con CAA, che permette a celebrità e creatori di rilevare le copie AI di se stessi e inviare richieste per la rimozione dei contenuti. Tra i creatori di spicco che partecipano al programma ci sono MrBeast, Mark Rober e Marques Brownlee.

Con queste iniziative, YouTube non solo si allinea a normative più severe sulla protezione dei diritti digitali, ma si posiziona anche come leader nell’affrontare le sfide poste dall’uso abusivo della tecnologia AI nel panorama dei media digitali.

More Insights

Governanza dell’AI in Salute: Tra Innovazione e Sicurezza

Negli ultimi sei mesi, il panorama normativo sull'IA ha subito cambiamenti monumentali, con una crescente retorica che considera la regolamentazione come un ostacolo all'innovazione. È fondamentale...

Regole Ambigue: L’Industria AI Chiede un Rinvio della Legge Fondamentale

L'industria dell'IA esprime preoccupazioni riguardo agli standard normativi ambigui della legge fondamentale sull'IA, temendo che possano ostacolare la crescita del settore. Recentemente, Huang...

GDPR e AI: Rispettare la Privacy nel Marketing

Gli esperti di marketing devono affrontare le sfide della privacy dei dati con la conformità al GDPR e il nuovo EU AI Act. Queste normative richiedono trasparenza e consenso chiaro nell'uso dei dati...

La Piramide del Rischio nell’Atto UE sull’IA

Una delle caratteristiche distintive dell'EU AI Act è il suo approccio basato sul rischio. I sistemi di intelligenza artificiale non sono trattati allo stesso modo; come vengono regolati dipende dal...

AI agenti: le nuove frontiere della sicurezza e della regolamentazione

Le aziende di intelligenza artificiale affermano che le attuali normative possono governare l'intelligenza artificiale agentica, considerata la prossima evoluzione dell'IA generativa. Gli sviluppatori...

Divieto di AI nelle riunioni online: una scelta controversa

La Commissione Europea ha vietato l'uso di assistenti virtuali basati sull'IA durante le riunioni online, nonostante la crescente popolarità di tali strumenti. Questo divieto ha suscitato...

Riformare le Regole dell’AI: Un Futuro per l’Innovazione in Europa

OpenAI sollecita l'Unione Europea a semplificare le normative sull'intelligenza artificiale per evitare di soffocare l'innovazione e la competitività globale. La società afferma che regole...

Progettare Fiducia nell’AI Responsabile

L'integrazione rapida dell'intelligenza artificiale (AI) nella tecnologia quotidiana ha portato a grandi opportunità, ma anche a sfide etiche significative. I progettisti di prodotti stanno...

Interoperabilità nell’IA: Un Futuro Senza Fratture

Mentre ci troviamo a un punto critico nello sviluppo dell'IA, emerge una sfida di governance che potrebbe soffocare l'innovazione e creare divisioni digitali globali. L'attuale paesaggio della...