Divieto di Regolamentazione dell’IA: Implicazioni per gli Stati

Divieto di Regolamentazione dell’IA da parte degli Stati: Un Passo Controverso

La Camera dei Rappresentanti degli Stati Uniti ha approvato un progetto di legge sul bilancio federale che include un moratorio di 10 anni sulla regolamentazione dell’intelligenza artificiale (IA) da parte degli stati. Questa legislazione ora passa al Senato per la considerazione.

Contenuti della Legge

Il moratorio proposto ha affrontato notevoli critiche, con esperti che sostengono che il suo linguaggio impedisce agli stati di far rispettare le leggi già in vigore e mina i loro sforzi per proteggere i residenti.

Il One Big Beautiful Bill Act, che propone il moratorio sulla regolamentazione dell’IA, è stato approvato dalla Camera giovedì con un voto di 215 a 214. La legislazione stabilisce che nessun governo statale o locale “può far rispettare alcuna legge o regolamento che regoli i modelli di intelligenza artificiale, i sistemi di intelligenza artificiale o le decisioni automatizzate” per il prossimo decennio.

Reazioni e Critiche

Travis Hall, direttore dell’engagement statale presso il Center for Democracy and Technology, ha dichiarato che questa situazione “legerebbe le mani” ai funzionari statali per far rispettare le leggi focalizzate sugli strumenti di IA. D’altra parte, Brad Carson, presidente di Americans for Responsible Innovation, ha avvertito che impedire ai legislatori statali di attuare misure di sicurezza per l’IA mette a rischio gli americani.

Carson ha affermato che le argomentazioni a favore di questa disposizione si basano sull’idea che il governo federale implementerà presto regole generali per proteggere il pubblico, ma ha messo in dubbio questa premessa.

Possibili Sfide al Senato

Il progetto di legge dovrà affrontare delle sfide nel Senato a causa della Byrd Rule, adottata nel 1985 per preservare il processo di riforma del bilancio, che vieta l’inclusione di “materia estranea” nella riconciliazione. Questa regola si applica a questioni che non producono un cambiamento nelle spese o nelle entrate.

Il CEO dell’National Conference of State Legislatures, Tim Storey, ha sottolineato che una disposizione che preclude ampiamente le leggi statali sull’IA violerebbe sicuramente la Byrd Rule.

Risposta degli Ufficiali Statali

Quaranta procuratori generali statali hanno firmato una lettera ai leader congressuali opponendosi all’emendamento. La lettera sostiene che il moratorio avrebbe un impatto devastante sulle ragionevoli misure statali per prevenire i danni noti associati all’IA.

Le preoccupazioni riguardano leggi specifiche che, se non possono essere applicate, potrebbero esporre i residenti a danni, come leggi contro materiale esplicito generato dall’IA e deepfake progettati per ingannare gli elettori.

Implicazioni per il Futuro dell’IA

Esperti hanno speculato su come potrebbe apparire la politica dell’IA sotto questa amministrazione, con molti che si aspettano un certo livello di deregulation federale. Tuttavia, si prevede anche che i governi statali e locali possano continuare a implementare le proprie protezioni.

La questione è complessa e solleva interrogativi sulla capacità dei legislatori di rispondere efficacemente ai rapidi sviluppi tecnologici dell’IA, che in passato hanno dimostrato di evolversi senza un’adeguata governance.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...