Divieto delle leggi statali sull’IA: un rischio per la protezione dei consumatori

Un divieto sulle leggi statali sull’IA potrebbe danneggiare i paletti legali di Big Tech

Il recente pacchetto di budget del Presidente Donald Trump ha incluso un divieto di dieci anni sulle leggi statali riguardanti l’intelligenza artificiale (IA), suscitando preoccupazioni tra i legislatori e i gruppi della società civile. Le preoccupazioni si concentrano sul fatto che un linguaggio così ampio potrebbe compromettere le protezioni per i consumatori.

Le responsabilità dei repubblicani

I repubblicani del Senato che supportano questa disposizione affermano che essa garantirà che le aziende di IA non siano ostacolate da un complesso mosaico di regolamenti. Tuttavia, i critici avvertono che se dovesse sopravvivere a un voto, Big Tech potrebbe essere esentata dai paletti legali statali per anni, senza alcuna promessa di standard federali alternativi.

Le preoccupazioni del Congresso

Il rappresentante Ro Khanna (D-CA) ha dichiarato che la legge, così com’è scritta, potrebbe limitare le leggi statali che tentano di regolamentare le aziende di social media e prevenire la discriminazione algoritmica. Egli avverte che questa moratoria darebbe carta bianca alle aziende per sviluppare l’IA senza protezioni per i consumatori e i lavoratori.

Ambiguità del divieto

La portata di ciò che il divieto potrebbe coprire è incerta e i critici affermano che questo è proprio il punto. Il linguaggio del divieto è così ampio che non è possibile essere certi di quali leggi statali potrebbero essere toccate. Potrebbero rientrare nel divieto anche gli standard di accuratezza e i test indipendenti richiesti per i modelli di riconoscimento facciale.

Implicazioni per le leggi statali

Un’analisi condotta dal gruppo di advocacy non profit Americans for Responsible Innovation (ARI) ha scoperto che leggi focalizzate sui social media, come il “Stop Addictive Feeds Exploitation for Kids Act” di New York, potrebbero essere annullate dalla disposizione. Ciò include anche le restrizioni che i governi statali potrebbero imporre sul proprio utilizzo dell’IA.

Nuove aggiunte del Senato

Il nuovo linguaggio del Senato introduce ulteriori complessità. La disposizione non è più un divieto semplice, ma condiziona i fondi per le infrastrutture statali sulla conformità a questa moratoria di dieci anni, coprendo anche le leggi penali statali.

Critiche e preoccupazioni

I sostenitori della moratoria sull’IA sostengono che non si applicherebbe a tante leggi quanto affermano i critici, ma gli esperti avvertono che ogni avvocato di Big Tech “che vale la pena” sosterrà che essa si applica. Khanna sottolinea che alcuni colleghi potrebbero non aver considerato appieno l’ampiezza della regola e come essa possa compromettere la protezione dei consumatori.

Conclusioni

Khanna avverte che perdere l’opportunità di una regolamentazione dell’IA potrebbe avere conseguenze anche più gravi rispetto a politiche internet passate. La questione non riguarda solo la struttura di internet, ma avrà ripercussioni sui posti di lavoro e sul ruolo degli algoritmi nei social media. Senza una legislazione statale garantita per un decennio, il Congresso potrebbe non sentire la pressione necessaria per approvare leggi proprie.

More Insights

Microsoft e Meta: scelte opposte sul codice etico dell’IA

Microsoft è probabile che firmi il codice di condotta dell'Unione Europea per garantire la conformità con le normative sull'intelligenza artificiale, mentre Meta ha annunciato che non firmerà il...

Legge sull’IA in Colorado: un nuovo standard per il futuro

La recente spinta fallita da parte dei membri del Congresso per congelare le leggi sull'intelligenza artificiale a livello statale ha lasciato le aziende statunitensi con operazioni nazionali di...

Piano d’Azione per l’AI: Verso Etica e Innovazione

Il prossimo Piano d'azione sulla tecnologia AI 2026–2030 della Malesia rafforzerà le salvaguardie etiche e i quadri di governance riguardanti l'uso dell'intelligenza artificiale. Il Ministro Digitale...

Strategie e Politiche AI: Un Futuro Condiviso

Lo sviluppo di politiche e strategie responsabili per l'intelligenza artificiale (AI) deve avvenire simultaneamente piuttosto che in modo sequenziale. Questo è stato condiviso da un relatore durante...

Rischi sistemici dell’IA: Linee guida per la conformità alle normative europee

La Commissione Europea ha presentato linee guida per aiutare i modelli di intelligenza artificiale che presentano rischi sistemici a conformarsi alla regolamentazione dell'Unione Europea...

Kerala: Pioniere dell’AI Etica nell’Istruzione

Il Kerala sta emergendo come un leader globale nell'intelligenza artificiale etica e nell'istruzione, adottando un approccio che combina visione governativa, innovazione e impegno per l'equità...

Stati e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Le leggi sull'intelligenza artificiale negli Stati Uniti stanno rapidamente aumentando, poiché gli stati, come California e Colorado, stanno implementando norme per affrontare questioni come la...

Intelligenza Artificiale e Compliance: Rischi e Opportunità

L'IA nella compliance è qui e si integra nelle operazioni quotidiane di molte organizzazioni, migliorando le capacità di rilevamento e automatizzando compiti intensivi in termini di risorse. Tuttavia...

Censura alimentata dall’IA: la nuova era della regolamentazione in Europa

Le nuove norme "di sicurezza e protezione" dell'UE richiederanno alle aziende tecnologiche di censurare e moderare i contenuti sui modelli di intelligenza artificiale (IA) a uso generale per prevenire...