Cruz e la sfida delle normative federali sull’IA

Senatore Cruz affronta ostacoli nella sua proposta di norme federali sull’IA

Il senatore del Texas Ted Cruz sta cercando di stabilire regole federali per l’IA per prevenire quella che definisce una confusa mosaico di leggi statali, ma si trova a dover affrontare una crescente attività legislativa a livello statale, guidata dalla California.

Le scommesse sono elevate, poiché l’obiettivo di Cruz e della Casa Bianca è quello di limitare l’influenza degli stati. Permettere alla California di prendere l’iniziativa nella definizione degli standard potrebbe avere conseguenze significative per il governo federale, considerando che lo stato dorato è il centro tecnologico più importante della nazione, rappresentando la più grande economia tecnologica e la quota maggiore del GDP tecnologico degli Stati Uniti.

Leggi sull’IA negli Stati Uniti

Attualmente, solo altri due stati oltre la California hanno leggi sull’IA con un impatto significativo. Il Responsible AI Safety and Education Act di New York affronta i rischi dell’IA avanzata e si sovrappone al regime di trasparenza della California. Questa legge è stata approvata nell’assemblea di New York a giugno. Il Michigan’s AI Transparency Act si concentra anch’esso sugli obblighi di trasparenza nel settore ed è in attesa di azione da parte del Comitato della Camera per la Riforma Regolamentare.

Dopo aver presentato il suo piano di cinque pilastri per rafforzare la leadership americana nell’IA il 10 settembre e introdotto il Sandbox Act, Cruz ha anche promesso di ripristinare il moratorium di dieci anni sulle leggi statali e locali sull’IA, che è stato eliminato dalla “One Big Beautiful Bill” dei Repubblicani quest’estate a causa di divisioni all’interno del partito.

Il contesto della legislazione statale

La legge è attualmente in attesa di azione da parte del Comitato del Senato per il Commercio, la Scienza e i Trasporti, di cui Cruz è presidente. Attualmente, il disegno di legge non ha co-sponsor, ma ha ottenuto supporto da gruppi commerciali della Big Tech come l’Abundance Institute, la U.S. Chamber of Commerce e l’Information Technology Industry Council.

Durante il Politico’s AI & Tech Summit, Cruz ha affermato che il moratorium “non è affatto morto”, sottolineando il suo argomento secondo cui gli standard statali frammentati minacciano la competitività dell’IA negli Stati Uniti e creano incubi di conformità per gli sviluppatori.

Dopo il crollo drammatico della proposta di moratorium federale sulle normative statali sull’IA a luglio, i legislatori californiani hanno visto questa come un’opportunità per plasmare il quadro normativo che potrebbe guidare le leggi nazionali sull’IA, proseguendo con la propria agenda regolatoria.

Le nuove leggi californiane

Negli ultimi giorni della sessione, i legislatori californiani hanno inviato al governatore Gavin Newsom due progetti di legge significativi: SB 53, un progetto di legge sulla trasparenza e la sicurezza per i produttori di IA avanzata, e SB 243, un primo quadro nazionale per limitare i rischi dei chatbot per i minori.

La SB 53 richiederebbe ai produttori di modelli di grandi dimensioni di pubblicare quadri di rischio e rapporti di trasparenza e di notificare le autorità statali in caso di incidenti critici. Questo approccio si distacca consapevolmente dai mandati prescrittivi di “kill switch” che Newsom aveva respinto quando aveva vetoato lo scorso anno un progetto di legge più ampio sulla sicurezza dell’IA.

Il primo grande sviluppatore di IA a sostenere la legge è stata Anthropic, che ha affermato che “con SB 53, gli sviluppatori possono competere garantendo al contempo trasparenza sulle capacità dell’IA che comportano rischi per la sicurezza pubblica”. Dan Hendrycks, direttore esecutivo del Center for AI Safety, ha dichiarato che questa legislazione rappresenta un primo passo piccolo ma importante verso una maggiore sicurezza dell’IA.

Critiche e supporto per le nuove leggi

Grandi gruppi commerciali come la Consumer Technology Association e la Chamber of Progress sono fortemente critici nei confronti della legge. “La SB 53 e leggi simili indeboliranno la leadership della California e degli Stati Uniti nell’IA, spingendo investimenti e posti di lavoro verso stati o paesi con quadri normativi meno gravosi e conflittuali”, ha dichiarato la Camera.

Newsom ha tempo fino al 12 ottobre, la scadenza statutaria per l’azione su leggi di fine sessione, per firmare o porre il veto alle leggi e non ha commentato pubblicamente. Già i consulenti aziendali hanno evidenziato il raggio d’azione più ristretto della legge, le tempistiche di segnalazione degli incidenti e le protezioni per i whistleblower come probabilmente passabili sotto l’esame del governatore.

La legge SB 243, redatta dal senatore Steve Padilla, richiederebbe agli operatori di chatbot di implementare protocolli di prevenzione al suicidio, limitare contenuti sessuali per i minori e divulgare che i chatbot non sono umani, insieme a un diritto d’azione privato per le famiglie in caso di mancato rispetto da parte degli sviluppatori.

Padilla ha citato casi di suicidio in California e Florida per giustificare la legge, sostenendo che “questa tecnologia può essere uno strumento educativo e di ricerca potente, ma se lasciata a se stessa, l’industria tecnologica è incentivata a catturare l’attenzione dei giovani… a spese delle loro relazioni nel mondo reale”.

Conclusioni sulla regolamentazione dell’IA

Questa contrapposizione federale-statale definisce la proposta di Cruz. Da un lato ci sono i nuovi regimi di trasparenza e le salvaguardie per la sicurezza dei giovani della California e la TRAIGA del Texas, tutte evidenze che, secondo lui, dimostrano il mosaico che Washington deve prevenire.

Dall’altro lato, ci sono i legislatori come Padilla che insistono sul fatto che le normative statali sono indispensabili mentre il Congresso si trova in una fase di stallo. Cruz è convinto di coordinarsi con la Casa Bianca e afferma che il personale delle regole del Senato ha approvato il suo linguaggio sul moratorium per futuri veicoli legislativi, ma sta anche puntando sul Sandbox Act per dimostrare che la supervisione federale può essere flessibile senza diventare un vuoto normativo.

Con leggi sull’IA già in vigore in alcuni stati, il mosaico non è più ipotetico. È questo il panorama che Cruz deve navigare.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...