Intelligenza Artificiale: Sfide Legali e Opportunità

Il Congresso e i tribunali affrontano le aree grigie legali dell’IA

L’intelligenza artificiale sta rapidamente diventando una parte integrante della vita quotidiana. Tuttavia, con l’esplosione di questa tecnologia, il dibattito si intensifica su come gestirla in modo corretto ed etico. La serie Era dell’Integrazione esamina come l’IA viene utilizzata responsabilmente nel Congresso, come il suo utilizzo sta causando problemi nelle scuole e come il Congresso e i tribunali stanno affrontando gli abusi che colpiscono le persone vulnerabili e le minacce alla proprietà intellettuale.

Con l’emergere di un numero crescente di vittime di immagini deepfake esplicite e le battaglie legali sul copyright, i rami legislativo e giudiziario stanno correndo per tracciare dei confini attorno ai modelli di linguaggio di grandi dimensioni (LLM). Nel frattempo, queste tecnologie stanno riscrivendo gli standard della società prima che le istituzioni governative abbiano la possibilità di reagire.

La possibilità di regolamentare l’IA attraverso il Congresso e i tribunali ha sollevato una domanda controversa: quando le leggi limitano gli abusi e quando superano i diritti garantiti dal Primo Emendamento?

Il Congresso si avvicina alla prima legge penale sull’IA con il Take It Down Act

La legislazione più avanzata sull’IA in Congresso è il Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act, meglio conosciuto come Take It Down Act. Sponsorizzato dai senatori Ted Cruz e Amy Klobuchar, il progetto di legge è stato approvato dal Senato all’unanimità a febbraio. Martedì, il Comitato per l’Energia e il Commercio della Camera ha approvato il progetto di legge con un voto di 49–1, aprendo la strada a un voto completo della Camera.

La legislazione punirebbe la distribuzione non consensuale di immagini esplicite, reali o generate dall’IA, e richiederebbe ai siti web e alle piattaforme di rimuovere tali contenuti entro 48 ore da una richiesta valida. Il rapido slancio della legge è dovuto in parte al supporto di alto profilo della First Lady Melania Trump, che ha fatto di questo un tema centrale della sua iniziativa “Be Best”.

I sostenitori affermano che è da tempo necessario. “Poiché i cattivi attori continuano a sfruttare nuove tecnologie come l’intelligenza artificiale generativa”, ha affermato Cruz, “il Take It Down Act è cruciale per porre fine alla diffusione di materiale sessualmente esploitativo online, ritenere la Big Tech responsabile e dare potere alle vittime di pornografia da vendetta e deepfake.”

Timori per la libertà di parola e lacune nell’applicazione sollevano bandiere rosse

Le osservazioni di Trump, destinate a suscitare risate, hanno invece alimentato preoccupazioni da parte di gruppi di libertà civili. La Electronic Frontier Foundation ha avvertito che il sistema di notifica e rimozione della legge potrebbe essere facilmente sfruttato da coloro che cercano di silenziare le critiche o controllare il discorso.

Anche i sostenitori delle finalità della legge temono la sua attuazione pratica. Il rappresentante Frank Pallone ha avvertito che una FTC sotto organico potrebbe rendere quasi impossibile l’applicazione della legge. “Non ci sarà applicazione di nulla relativo alla privacy dei bambini,” ha affermato.

Il NO FAKES Act affronta l’impersonificazione digitale dell’IA

In parallelo al Take It Down Act, c’è una spinta rinnovata per il NO FAKES Act (Nurture Originals, Foster Art, and Keep Entertainment Safe), un progetto di legge progettato per proteggere contro le impersonificazioni digitali non autorizzate utilizzando l’IA, in particolare di artisti, performer e figure pubbliche.

La versione recentemente ampliata del progetto di legge stabilirebbe un diritto federale di pubblicità per citare in giudizio per repliche non autorizzate di voce e somiglianza; richiederebbe il fingerprinting digitale per bloccare i caricamenti di contenuti rimossi; estenderebbe le protezioni di porto sicuro per le piattaforme che rispettano le richieste di rimozione; e imporrebbe sanzioni civili fino a 750.000 dollari per violazione per le piattaforme che non agiscono in buona fede.

Il conflitto sul copyright potrebbe ristrutturare l’industria dell’IA

Nel frattempo, una grande battaglia legale potrebbe rivelarsi trasformativa quanto qualsiasi nuova legge. Nel caso New York Times v. OpenAI, un giudice federale ha recentemente stabilito che l’outlet può continuare la sua causa contro OpenAI e Microsoft per violazione del copyright.

Il New York Times sostiene che i suoi articoli sono stati utilizzati senza permesso per addestrare ChatGPT e che il chatbot ha prodotto materiale simile al suo giornalismo. Il giudice distrettuale degli Stati Uniti Sidney Stein ha rilevato che il New York Times ha mostrato “numerosi” esempi di potenziale violazione, mantenendo vive le principali rivendicazioni.

Questa causa rappresenta un problema centrale per la crescita e la maturità dell’IA negli Stati Uniti, poiché potrebbe costringere OpenAI e Microsoft a riaddestrare i modelli, alterare le uscite o risarcire i detentori dei diritti, risultati che avrebbero ripercussioni su tutta l’industria.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...