Divieto delle leggi statali sull’IA: un rischio per la protezione dei consumatori

Un divieto sulle leggi statali sull’IA potrebbe danneggiare i paletti legali di Big Tech

Il recente pacchetto di budget del Presidente Donald Trump ha incluso un divieto di dieci anni sulle leggi statali riguardanti l’intelligenza artificiale (IA), suscitando preoccupazioni tra i legislatori e i gruppi della società civile. Le preoccupazioni si concentrano sul fatto che un linguaggio così ampio potrebbe compromettere le protezioni per i consumatori.

Le responsabilità dei repubblicani

I repubblicani del Senato che supportano questa disposizione affermano che essa garantirà che le aziende di IA non siano ostacolate da un complesso mosaico di regolamenti. Tuttavia, i critici avvertono che se dovesse sopravvivere a un voto, Big Tech potrebbe essere esentata dai paletti legali statali per anni, senza alcuna promessa di standard federali alternativi.

Le preoccupazioni del Congresso

Il rappresentante Ro Khanna (D-CA) ha dichiarato che la legge, così com’è scritta, potrebbe limitare le leggi statali che tentano di regolamentare le aziende di social media e prevenire la discriminazione algoritmica. Egli avverte che questa moratoria darebbe carta bianca alle aziende per sviluppare l’IA senza protezioni per i consumatori e i lavoratori.

Ambiguità del divieto

La portata di ciò che il divieto potrebbe coprire è incerta e i critici affermano che questo è proprio il punto. Il linguaggio del divieto è così ampio che non è possibile essere certi di quali leggi statali potrebbero essere toccate. Potrebbero rientrare nel divieto anche gli standard di accuratezza e i test indipendenti richiesti per i modelli di riconoscimento facciale.

Implicazioni per le leggi statali

Un’analisi condotta dal gruppo di advocacy non profit Americans for Responsible Innovation (ARI) ha scoperto che leggi focalizzate sui social media, come il “Stop Addictive Feeds Exploitation for Kids Act” di New York, potrebbero essere annullate dalla disposizione. Ciò include anche le restrizioni che i governi statali potrebbero imporre sul proprio utilizzo dell’IA.

Nuove aggiunte del Senato

Il nuovo linguaggio del Senato introduce ulteriori complessità. La disposizione non è più un divieto semplice, ma condiziona i fondi per le infrastrutture statali sulla conformità a questa moratoria di dieci anni, coprendo anche le leggi penali statali.

Critiche e preoccupazioni

I sostenitori della moratoria sull’IA sostengono che non si applicherebbe a tante leggi quanto affermano i critici, ma gli esperti avvertono che ogni avvocato di Big Tech “che vale la pena” sosterrà che essa si applica. Khanna sottolinea che alcuni colleghi potrebbero non aver considerato appieno l’ampiezza della regola e come essa possa compromettere la protezione dei consumatori.

Conclusioni

Khanna avverte che perdere l’opportunità di una regolamentazione dell’IA potrebbe avere conseguenze anche più gravi rispetto a politiche internet passate. La questione non riguarda solo la struttura di internet, ma avrà ripercussioni sui posti di lavoro e sul ruolo degli algoritmi nei social media. Senza una legislazione statale garantita per un decennio, il Congresso potrebbe non sentire la pressione necessaria per approvare leggi proprie.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...