YouTube supporta la legge No Fakes per difendere l’originalità dell’AI

YouTube supporta il ‘No Fakes Act’ contro le repliche AI non autorizzate

Il No Fakes Act, proposto dai senatori Chris Coons (D-DE) e Marsha Blackburn (R-TN), mira a standardizzare le regole relative all’uso delle copie AI dei volti, nomi e voci delle persone. YouTube ha annunciato il suo sostegno a questa legge, precedentemente introdotta nel 2023 e 2024, affermando che l’atto cerca di bilanciare la protezione con l’innovazione, dando potere agli individui di segnalare le immagini generate da AI che ritengono debbano essere rimosse.

Obiettivi del No Fakes Act

Il No Fakes Act si propone di proteggere i diritti degli individui contro l’uso improprio delle loro identità digitali. YouTube afferma che l’atto “si concentra sul miglior modo per bilanciare la protezione con l’innovazione”, consentendo agli utenti di notificare le piattaforme riguardo alle repliche non autorizzate.

Il supporto di YouTube si unisce a quello già presente di organizzazioni come SAG-AFTRA e la Recording Industry Association, nonostante le critiche da parte di gruppi per le libertà civili come l’Electronic Frontier Foundation (EFF), che ha criticato le versioni precedenti della legge per essere troppo generiche.

Dettagli della Legge

La versione del 2024 della legge stabilisce che i servizi online, come YouTube, non possono essere ritenuti responsabili per la memorizzazione di un “replica digitale non autorizzata” fornita da terzi, a patto che rimuovano il materiale in risposta a reclami di uso non autorizzato e notifichino l’uploaders della rimozione. Inoltre, la legge specifica che i servizi progettati principalmente per produrre deepfakes possono essere soggetti a responsabilità.

Impatto sulla Libertà di Espressione

Durante una conferenza stampa, il senatore Coons ha dichiarato che parte del “refresh 2.0” includeva misure per affrontare le preoccupazioni sulla libertà di espressione e limiti alla responsabilità. YouTube ha inoltre espresso il suo supporto per il Take It Down Act, che renderebbe un reato pubblicare immagini intime non consensuali, anche se generate da AI, e obbligherebbe i social media a disporre di processi per rimuovere rapidamente tali immagini quando segnalate.

Innovazioni Tecnologiche di YouTube

YouTube ha recentemente annunciato l’espansione di un programma pilota per la gestione delle immagini in partnership con CAA, che permette a celebrità e creatori di rilevare le copie AI di se stessi e inviare richieste per la rimozione dei contenuti. Tra i creatori di spicco che partecipano al programma ci sono MrBeast, Mark Rober e Marques Brownlee.

Con queste iniziative, YouTube non solo si allinea a normative più severe sulla protezione dei diritti digitali, ma si posiziona anche come leader nell’affrontare le sfide poste dall’uso abusivo della tecnologia AI nel panorama dei media digitali.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...