Il Congresso e i tribunali affrontano le aree grigie legali dell’IA
L’intelligenza artificiale sta rapidamente diventando una parte integrante della vita quotidiana. Tuttavia, con l’esplosione di questa tecnologia, il dibattito si intensifica su come gestirla in modo corretto ed etico. La serie Era dell’Integrazione esamina come l’IA viene utilizzata responsabilmente nel Congresso, come il suo utilizzo sta causando problemi nelle scuole e come il Congresso e i tribunali stanno affrontando gli abusi che colpiscono le persone vulnerabili e le minacce alla proprietà intellettuale.
Con l’emergere di un numero crescente di vittime di immagini deepfake esplicite e le battaglie legali sul copyright, i rami legislativo e giudiziario stanno correndo per tracciare dei confini attorno ai modelli di linguaggio di grandi dimensioni (LLM). Nel frattempo, queste tecnologie stanno riscrivendo gli standard della società prima che le istituzioni governative abbiano la possibilità di reagire.
La possibilità di regolamentare l’IA attraverso il Congresso e i tribunali ha sollevato una domanda controversa: quando le leggi limitano gli abusi e quando superano i diritti garantiti dal Primo Emendamento?
Il Congresso si avvicina alla prima legge penale sull’IA con il Take It Down Act
La legislazione più avanzata sull’IA in Congresso è il Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act, meglio conosciuto come Take It Down Act. Sponsorizzato dai senatori Ted Cruz e Amy Klobuchar, il progetto di legge è stato approvato dal Senato all’unanimità a febbraio. Martedì, il Comitato per l’Energia e il Commercio della Camera ha approvato il progetto di legge con un voto di 49–1, aprendo la strada a un voto completo della Camera.
La legislazione punirebbe la distribuzione non consensuale di immagini esplicite, reali o generate dall’IA, e richiederebbe ai siti web e alle piattaforme di rimuovere tali contenuti entro 48 ore da una richiesta valida. Il rapido slancio della legge è dovuto in parte al supporto di alto profilo della First Lady Melania Trump, che ha fatto di questo un tema centrale della sua iniziativa “Be Best”.
I sostenitori affermano che è da tempo necessario. “Poiché i cattivi attori continuano a sfruttare nuove tecnologie come l’intelligenza artificiale generativa”, ha affermato Cruz, “il Take It Down Act è cruciale per porre fine alla diffusione di materiale sessualmente esploitativo online, ritenere la Big Tech responsabile e dare potere alle vittime di pornografia da vendetta e deepfake.”
Timori per la libertà di parola e lacune nell’applicazione sollevano bandiere rosse
Le osservazioni di Trump, destinate a suscitare risate, hanno invece alimentato preoccupazioni da parte di gruppi di libertà civili. La Electronic Frontier Foundation ha avvertito che il sistema di notifica e rimozione della legge potrebbe essere facilmente sfruttato da coloro che cercano di silenziare le critiche o controllare il discorso.
Anche i sostenitori delle finalità della legge temono la sua attuazione pratica. Il rappresentante Frank Pallone ha avvertito che una FTC sotto organico potrebbe rendere quasi impossibile l’applicazione della legge. “Non ci sarà applicazione di nulla relativo alla privacy dei bambini,” ha affermato.
Il NO FAKES Act affronta l’impersonificazione digitale dell’IA
In parallelo al Take It Down Act, c’è una spinta rinnovata per il NO FAKES Act (Nurture Originals, Foster Art, and Keep Entertainment Safe), un progetto di legge progettato per proteggere contro le impersonificazioni digitali non autorizzate utilizzando l’IA, in particolare di artisti, performer e figure pubbliche.
La versione recentemente ampliata del progetto di legge stabilirebbe un diritto federale di pubblicità per citare in giudizio per repliche non autorizzate di voce e somiglianza; richiederebbe il fingerprinting digitale per bloccare i caricamenti di contenuti rimossi; estenderebbe le protezioni di porto sicuro per le piattaforme che rispettano le richieste di rimozione; e imporrebbe sanzioni civili fino a 750.000 dollari per violazione per le piattaforme che non agiscono in buona fede.
Il conflitto sul copyright potrebbe ristrutturare l’industria dell’IA
Nel frattempo, una grande battaglia legale potrebbe rivelarsi trasformativa quanto qualsiasi nuova legge. Nel caso New York Times v. OpenAI, un giudice federale ha recentemente stabilito che l’outlet può continuare la sua causa contro OpenAI e Microsoft per violazione del copyright.
Il New York Times sostiene che i suoi articoli sono stati utilizzati senza permesso per addestrare ChatGPT e che il chatbot ha prodotto materiale simile al suo giornalismo. Il giudice distrettuale degli Stati Uniti Sidney Stein ha rilevato che il New York Times ha mostrato “numerosi” esempi di potenziale violazione, mantenendo vive le principali rivendicazioni.
Questa causa rappresenta un problema centrale per la crescita e la maturità dell’IA negli Stati Uniti, poiché potrebbe costringere OpenAI e Microsoft a riaddestrare i modelli, alterare le uscite o risarcire i detentori dei diritti, risultati che avrebbero ripercussioni su tutta l’industria.