Intelligenza Artificiale: Sfide Legali e Opportunità

Il Congresso e i tribunali affrontano le aree grigie legali dell’IA

L’intelligenza artificiale sta rapidamente diventando una parte integrante della vita quotidiana. Tuttavia, con l’esplosione di questa tecnologia, il dibattito si intensifica su come gestirla in modo corretto ed etico. La serie Era dell’Integrazione esamina come l’IA viene utilizzata responsabilmente nel Congresso, come il suo utilizzo sta causando problemi nelle scuole e come il Congresso e i tribunali stanno affrontando gli abusi che colpiscono le persone vulnerabili e le minacce alla proprietà intellettuale.

Con l’emergere di un numero crescente di vittime di immagini deepfake esplicite e le battaglie legali sul copyright, i rami legislativo e giudiziario stanno correndo per tracciare dei confini attorno ai modelli di linguaggio di grandi dimensioni (LLM). Nel frattempo, queste tecnologie stanno riscrivendo gli standard della società prima che le istituzioni governative abbiano la possibilità di reagire.

La possibilità di regolamentare l’IA attraverso il Congresso e i tribunali ha sollevato una domanda controversa: quando le leggi limitano gli abusi e quando superano i diritti garantiti dal Primo Emendamento?

Il Congresso si avvicina alla prima legge penale sull’IA con il Take It Down Act

La legislazione più avanzata sull’IA in Congresso è il Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act, meglio conosciuto come Take It Down Act. Sponsorizzato dai senatori Ted Cruz e Amy Klobuchar, il progetto di legge è stato approvato dal Senato all’unanimità a febbraio. Martedì, il Comitato per l’Energia e il Commercio della Camera ha approvato il progetto di legge con un voto di 49–1, aprendo la strada a un voto completo della Camera.

La legislazione punirebbe la distribuzione non consensuale di immagini esplicite, reali o generate dall’IA, e richiederebbe ai siti web e alle piattaforme di rimuovere tali contenuti entro 48 ore da una richiesta valida. Il rapido slancio della legge è dovuto in parte al supporto di alto profilo della First Lady Melania Trump, che ha fatto di questo un tema centrale della sua iniziativa “Be Best”.

I sostenitori affermano che è da tempo necessario. “Poiché i cattivi attori continuano a sfruttare nuove tecnologie come l’intelligenza artificiale generativa”, ha affermato Cruz, “il Take It Down Act è cruciale per porre fine alla diffusione di materiale sessualmente esploitativo online, ritenere la Big Tech responsabile e dare potere alle vittime di pornografia da vendetta e deepfake.”

Timori per la libertà di parola e lacune nell’applicazione sollevano bandiere rosse

Le osservazioni di Trump, destinate a suscitare risate, hanno invece alimentato preoccupazioni da parte di gruppi di libertà civili. La Electronic Frontier Foundation ha avvertito che il sistema di notifica e rimozione della legge potrebbe essere facilmente sfruttato da coloro che cercano di silenziare le critiche o controllare il discorso.

Anche i sostenitori delle finalità della legge temono la sua attuazione pratica. Il rappresentante Frank Pallone ha avvertito che una FTC sotto organico potrebbe rendere quasi impossibile l’applicazione della legge. “Non ci sarà applicazione di nulla relativo alla privacy dei bambini,” ha affermato.

Il NO FAKES Act affronta l’impersonificazione digitale dell’IA

In parallelo al Take It Down Act, c’è una spinta rinnovata per il NO FAKES Act (Nurture Originals, Foster Art, and Keep Entertainment Safe), un progetto di legge progettato per proteggere contro le impersonificazioni digitali non autorizzate utilizzando l’IA, in particolare di artisti, performer e figure pubbliche.

La versione recentemente ampliata del progetto di legge stabilirebbe un diritto federale di pubblicità per citare in giudizio per repliche non autorizzate di voce e somiglianza; richiederebbe il fingerprinting digitale per bloccare i caricamenti di contenuti rimossi; estenderebbe le protezioni di porto sicuro per le piattaforme che rispettano le richieste di rimozione; e imporrebbe sanzioni civili fino a 750.000 dollari per violazione per le piattaforme che non agiscono in buona fede.

Il conflitto sul copyright potrebbe ristrutturare l’industria dell’IA

Nel frattempo, una grande battaglia legale potrebbe rivelarsi trasformativa quanto qualsiasi nuova legge. Nel caso New York Times v. OpenAI, un giudice federale ha recentemente stabilito che l’outlet può continuare la sua causa contro OpenAI e Microsoft per violazione del copyright.

Il New York Times sostiene che i suoi articoli sono stati utilizzati senza permesso per addestrare ChatGPT e che il chatbot ha prodotto materiale simile al suo giornalismo. Il giudice distrettuale degli Stati Uniti Sidney Stein ha rilevato che il New York Times ha mostrato “numerosi” esempi di potenziale violazione, mantenendo vive le principali rivendicazioni.

Questa causa rappresenta un problema centrale per la crescita e la maturità dell’IA negli Stati Uniti, poiché potrebbe costringere OpenAI e Microsoft a riaddestrare i modelli, alterare le uscite o risarcire i detentori dei diritti, risultati che avrebbero ripercussioni su tutta l’industria.

More Insights

Fiducia e Rischio nell’Era dell’AI

Per i marketer, l'IA promette un salto in produttività, ma solo se guidata da una strategia chiara e supervisione umana. La questione non è se utilizzare l'IA, ma come usarla in modo responsabile ed...

Governanza Cloud: Rilanciare l’Innovazione nell’Era dell’AI

Molti si concentrano sulle ultime innovazioni dell'IA, ma pochi prestano attenzione a un gap critico: i modelli di governance del cloud obsoleti. Questi modelli non sono stati costruiti per il ritmo...

Guida pratica per un’adozione responsabile dell’IA

Con l'intelligenza artificiale (IA) che diventa una parte fondamentale delle moderne attività commerciali, la Confederazione dell'Industria Indiana (CII) ha pubblicato una nuova guida per aiutare i...

Automazione Intelligente e Sicurezza: Rischi e Opportunità nel DevSecOps

L'adozione rapida dell'automazione alimentata dall'IA nel DevSecOps introduce opportunità e sfide significative. Sebbene l'automazione possa migliorare l'efficienza, è fondamentale garantire che le...

Centro di Eccellenza per l’Intelligenza Artificiale: La Nuova Frontiera del Diritto

In un importante sviluppo che pone l'India in prima linea nel dibattito globale sulla regolamentazione dell'intelligenza artificiale (AI), è stato annunciato l'istituzione del Centro Cyril Shroff per...

Politica AI: Semplificare la Governance per le Agenzie Pubbliche

Darwin ha annunciato il lancio del suo AI Policy Wizard, uno strumento gratuito e interattivo progettato per aiutare i governi locali e le agenzie pubbliche a creare politiche AI pratiche e conformi...

Riconquistare la Fiducia nell’Intelligenza Artificiale con la Governance

Le minacce poco chiare e il comportamento imprevedibile complicano la fiducia globale nell'IA. È essenziale utilizzare misure di governance come il Regolamento sull'IA dell'UE per stabilire una...

Cultura e AI: Costruire Fiducia nel Futuro Tecnologico

Questo rapporto esamina le soluzioni che enfatizzano gli accordi collaborativi e le iniziative interorganizzative per creare un input diversificato di idee. È fondamentale che la governance dell'IA...

La conformità al copyright nell’era dell’IA generativa

Una delle sfide principali nella formazione dei modelli di intelligenza artificiale generativa è garantire la conformità alle leggi sul copyright. L'AI Act dell'UE sottolinea la necessità di...