La battaglia per la regolamentazione dell’IA

La lotta per la regolamentazione dell’IA è tutt’altro che finita

Il dibattito su chi debba regolare l’Intelligenza Artificiale (IA) è diventato un tema cruciale negli Stati Uniti. Recentemente, il One Big Beautiful Bill Act dei Repubblicani ha ricevuto l’approvazione del Senato e si dirige ora verso un voto finale alla Camera. Tuttavia, prima della sua approvazione, è stata rimossa un’emendamento controverso che avrebbe imposto un congelamento di cinque anni sulla regolamentazione statale dei modelli e delle applicazioni di IA.

La rimozione di questo emendamento è stata accolta con favore da diversi esperti. Michael Kleinman, responsabile delle politiche presso il Future of Life Institute, ha affermato che un congelamento simile sarebbe stato disastroso per le singole legislazioni statali. Secondo Kleinman, “questo è il modo peggiore di legislare sull’IA per due motivi: rende quasi impossibile qualsiasi tipo di legislazione e avviene in un ambiente caotico e affrettato”.

Il congelamento della regolamentazione e le sue implicazioni

Il progetto originale prevedeva un congelamento di dieci anni, ma il Senato ha ridotto il termine a cinque anni, introducendo eccezioni per le leggi statali che proteggono i bambini e i diritti d’autore. Tuttavia, è stata anche introdotta una formulazione vaga che vieta qualsiasi legge statale che imponga un “onere eccessivo o sproporzionato” alle aziende di IA. Questo ha sollevato preoccupazioni tra gli esperti, che temono che le aziende di IA possano utilizzare questo linguaggio per contestare le regolazioni legali.

Attualmente, tutti i 50 stati stanno introducendo nuove leggi sull’IA, con California, Colorado, Illinois, New York e Utah particolarmente attivi. Finora, 28 stati hanno adottato o emanato leggi relative all’IA. Questa tendenza è destinata a continuare, specialmente man mano che si manifestano le perdite di posti di lavoro causate dall’automazione guidata dall’IA.

Il supporto popolare per la regolamentazione dell’IA

La regolamentazione dell’IA è popolare tra gli elettori, con molti che sostengono che possa mitigare i rischi senza ostacolare il progresso tecnologico. Tuttavia, l’emendamento di congelamento avrebbe penalizzato finanziariamente gli stati che tentano di proteggere il pubblico, in particolare per quanto riguarda i fondi per la banda larga.

Kleinman sostiene che non è necessario un compromesso tra innovazione e regolamentazione: “Possiamo avere innovazione e anche regolamenti che proteggono i bambini e le famiglie”. Attualmente, le aziende di IA affrontano meno regolamentazione rispetto a un normale ristorante.

Un nuovo precedente per i dati di training dell’IA e il copyright

Il 23 giugno, il giudice William Alsup ha emesso una sentenza nel caso Bartz v. Anthropic, stabilendo che l’addestramento del modello Claude da parte di Anthropic su libri acquistati e digitalizzati legalmente è “culturalmente trasformativo” e quindi qualificabile come utilizzo lecito secondo la legge sul copyright degli Stati Uniti. Tuttavia, il tribunale ha anche indicato che la società ha probabilmente violato il copyright includendo nella propria libreria di dati di training 7 milioni di libri digitali piratati.

Due giorni dopo, nel caso Kadrey v. Meta Platforms, il giudice Vince Chhabria ha respinto una causa intentata da 13 autori che sostenevano che Meta avesse addestrato i suoi modelli Llama utilizzando i loro libri senza permesso. Chhabria ha sottolineato che i ricorrenti non sono riusciti a dimostrare che l’uso da parte di Meta avesse danneggiato il mercato per le loro opere.

Le implicazioni future per i diritti d’autore

Chhabria ha tracciato un possibile percorso legale per future vittorie dei detentori di diritti d’autore contro le aziende di IA. Gli avvocati del copyright potrebbero presentare come prova i migliaia di libri generati dall’IA attualmente in vendita su piattaforme come Amazon, sostenendo che ogni titolo compete con le opere umane utilizzate per addestrare i modelli.

Apple e il futuro di Siri

Apple ha recentemente apportato cambiamenti significativi alla gestione di Siri, il suo assistente personale alimentato da IA. Con il passare del tempo, il CEO Tim Cook ha perso fiducia nel gruppo centrale di Apple dedicato all’IA, portando alla nomina di Mike Rockwell per guidare il nuovo team incaricato di sviluppare Siri.

Rockwell, che ha una vasta esperienza in progetti complessi, è stato incaricato di integrare gli sforzi di IA, hardware e software di Apple per lanciare una nuova versione di Siri nel 2026. Recentemente, il gruppo di Rockwell sta valutando se Siri debba essere alimentato dai modelli di IA di Apple o da offerte più mature di aziende come OpenAI o Anthropic.

Questi cambiamenti potrebbero finalmente portare Apple a realizzare l’assistente IA che aveva promesso nel 2024.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...