Leggi della California contro la regolamentazione federale dell’IA

Legislatori della California si Oppongono a un Divieto di Regolamentazione dell’IA Fedele nel ‘One Big Beautiful Bill Act’

Il 28 maggio 2025, un’alleanza bipartisan di legislatori californiani ha espresso forti preoccupazioni riguardo a una disposizione poco notata all’interno di un ampio pacchetto fiscale federale. Questa disposizione bloccherebbe stati e governi locali dalla regolamentazione dell’Intelligenza Artificiale (IA) per un decennio.

La Disposizione Controverso

La disposizione, lunga solo due frasi, è sepolta nel “One Big Beautiful Bill Act”, un bilancio fiscale repubblicano che ha superato la Camera per un solo voto. Se approvata, essa proibirebbe a stati, città e contee di adottare o far rispettare qualsiasi legge riguardante modelli di IA, sistemi di IA, o sistemi di decisione automatizzati fino al 2035.

Preoccupazioni dei Legislatori

In una lettera ai leader del Congresso, 35 legislatori della California, tra cui 32 democratici e 3 repubblicani, hanno avvertito che questa moratoria minaccia la sicurezza pubblica e viola i principi del federalismo. Hanno affermato che la disposizione mette a rischio i diritti dei cittadini americani e compromette l’innovazione.

Il governatore della California, Gavin Newsom, ha anche espresso la sua opposizione alla proposta, sottolineando che essa potrebbe mettere a rischio le leggi statali che vietano contenuti dannosi generati dall’IA.

Il Ruolo della California nell’IA

La California, che è la quinta economia mondiale, è un leader nazionale nella regolamentazione dell’IA, con 22 leggi in vigore. Tuttavia, la legislazione statale ha anche incontrato ostacoli, come dimostra il veto di un’importante legge sulla sicurezza dell’IA da parte di Newsom nel settembre 2024. Questa legge avrebbe richiesto alle grandi aziende di effettuare valutazioni dei rischi sui loro modelli di IA.

Reazioni e Sviluppi Recenti

Il dibattito intorno alla regolamentazione dell’IA è acceso, con 26 leggi sulle deepfake già approvate nel 2025. La preoccupazione per un divieto federale generale sulla legislazione statale è condivisa da 37 procuratori generali di diversi stati, che temono che ciò interferisca con gli sforzi statali per garantire responsabilità nell’uso dell’IA.

Durante un’udienza, il membro del Congresso Jay Obernolte ha affermato che è compito del Congresso regolamentare l’IA, sottolineando che nessuno desidera un’assenza di regolamentazione. Tuttavia, il futuro della disposizione nella Camera dei Rappresentanti potrebbe affrontare ostacoli procedurali nel Senato.

In conclusione, il dibattito sulla regolamentazione dell’IA continua ad intensificarsi, con numerose questioni che rimangono aperte riguardo al bilanciamento tra innovazione, sicurezza pubblica e autorità statale.

More Insights

L’Utah guida la rivoluzione delle politiche sull’IA

Un legislatore dell'Utah è stato recentemente scelto per guidare un gruppo di lavoro nazionale per aiutare a orientare le politiche statali sull'intelligenza artificiale. Il rappresentante statale...

Nuove Regole per l’Intelligenza Artificiale in Texas

Il governatore del Texas ha firmato la legge sul governo responsabile dell'intelligenza artificiale del Texas (TRAIGA) il 22 giugno 2025, rendendo il Texas il secondo stato a introdurre una...

Nuove Regole dell’UE per l’Intelligenza Artificiale: Un Futuro Sicuro

L'Unione Europea ha implementato la propria legge sull'IA, rilasciando linee guida per garantire la conformità e bilanciare l'innovazione dell'IA con la sicurezza. Questa legge introduce categorie di...

Politiche internazionali per l’intelligenza artificiale: un nuovo orizzonte

Dall'inizio del 2025, la direzione strategica della politica sull'intelligenza artificiale (AI) si è drasticamente spostata, concentrandosi sulla capacità degli stati nazionali di "vincere la corsa...

Politiche internazionali per l’intelligenza artificiale: un nuovo orizzonte

Dall'inizio del 2025, la direzione strategica della politica sull'intelligenza artificiale (AI) si è drasticamente spostata, concentrandosi sulla capacità degli stati nazionali di "vincere la corsa...

Rischi di conformità nell’integrazione dell’intelligenza artificiale

L'intelligenza artificiale sta diventando una parte fondamentale delle funzioni di conformità aziendale, semplificando compiti come le revisioni automatiche dei contratti e il monitoraggio continuo...

Governanza dell’AI: il divario tra adozione e gestione

Secondo una nuova ricerca, il 93% delle aziende nel Regno Unito utilizza l'IA in qualche modo, ma la maggior parte manca di quadri per gestire i rischi. Solo il sette percento ha implementato...

Governanza dei Dati nell’Atto AI dell’UE: Fondamenti e Implicazioni

La legge sull'intelligenza artificiale dell'Unione Europea (EU AI Act) propone un quadro per regolare l'IA, in particolare per i sistemi "ad alto rischio". L'articolo 10 si concentra sui dati e sulla...

Codice di Pratica GPAI: Nuove Regole per l’Intelligenza Artificiale in Europa

La Commissione Europea ha pubblicato un Codice di Pratica volontario per aiutare l'industria a conformarsi agli obblighi della legge sull'IA riguardo alla sicurezza, trasparenza e copyright per i...