Stop alla regolamentazione dell’IA: la nuova minaccia per la sicurezza pubblica

Un’inquietante proposta nel bilancio congressuale: fermare la regolamentazione dell’IA

Negli ultimi giorni, l’attenzione dei media congressuali si è concentrata sulle proposte di tagli alla Medicaid, che priverebbero milioni di persone della copertura sanitaria. Tuttavia, un’altra misura, sostenuta dai Repubblicani della Camera, è passata sotto silenzio, ma avrà un impatto significativo su tutti gli americani.

Il Comitato dell’Energia e del Commercio della Camera degli Stati Uniti, votando lungo linee di partito, ha supportato una misura che prevede di precludere tutte le regolazioni statali e locali dell’IA per i prossimi dieci anni. Questa disposizione, sebbene fosse nascosta in una sezione specifica della proposta di riconciliazione del bilancio, priverebbe il pubblico di qualsiasi ricorso significativo di fronte ai danni legati all’IA.

Una licenza per l’impunità aziendale

Non si tratta semplicemente di una pausa nella regolamentazione; è un permesso decennale per l’impunità aziendale. Questa misura invia un messaggio chiaro agli stati: state in silenzio mentre Big Tech scrive le proprie regole o continua a fare lobbying presso il Congresso per non avere alcuna regola.

Negli ultimi anni, i legislatori federali hanno rinviato l’azione sulla regolamentazione dell’IA, mentre i leader statali, sia Repubblicani che Democratici, hanno preso l’iniziativa. In assenza di azioni federali, gli stati hanno stabilito salvaguardie dove l’IA sta rapidamente trasformando le nostre vite, incluse protezioni contro materiale elettorale deepfake, pornografia generata da IA, discriminazione algoritmica e responsabilità dei sistemi di veicoli autonomi.

Esempi di leggi statali che potrebbero essere bloccate

Qui ci sono solo alcuni esempi delle leggi statali che potrebbero essere bloccate dalla moratoria decennale sulla regolazione dell’IA:

  • Due terzi degli stati statunitensi hanno leggi contro la pornografia generata da IA.
  • La metà degli stati ha leggi contro i materiali elettorali ingannevoli generati da IA.
  • La legge a livello statale del Colorado stabilisce meccanismi di protezione dei consumatori e responsabilità per le aziende di IA.
  • Le leggi del Kentucky proteggono i cittadini dalla discriminazione da parte dell’IA.
  • La legge ELVIS del Tennessee protegge contro il clonaggio vocale dell’IA.
  • Una legge del Dakota del Nord proibisce alle compagnie di assicurazione sanitaria di utilizzare l’IA per prendere decisioni di autorizzazione sui trattamenti.
  • Il Bill of Rights dell’IA di New York fornisce protezioni ai diritti civili e dei consumatori.
  • Il supremo tribunale della Carolina del Sud ha emesso una direttiva per garantire l’integrazione responsabile e sicura dell’IA.

La risposta degli stati e la cooperazione bipartisan

Queste leggi riflettono il lavoro urgente dei legislatori statali per affrontare i rischi e i danni data l’inerzia del Congresso. Molti di questi legislatori sono stati stimolati all’azione da elettori che hanno vissuto esperienze negative a causa di prodotti e servizi basati sull’IA.

In un’epoca di politica iperpartitica, i legislatori statali hanno collaborato per attuare soluzioni politiche che cercano di affrontare alcuni dei danni significativi causati dall’IA. I primi anni di regolazione dell’IA a livello statale hanno incluso la creazione di numerosi studi e task force per valutare i migliori approcci per proteggere i cittadini.

Il futuro della regolamentazione dell’IA

La proposta di legge non crea uno standard nazionale per l’IA, ma crea un vuoto normativo di dieci anni durante il quale le aziende di IA potrebbero operare senza responsabilità. Nessuna causa legale. Nessuna indagine locale. Nessun mandato di trasparenza. Nessun nuovo diritto. Nessun dibattito democratico.

Abbiamo già visto questo copione in passato, quando il Congresso ha rinviato l’azione sui social media. Gli stati hanno cercato di colmare il divario, ma era troppo tardi per prevenire molte delle conseguenze che affrontiamo ora, come la disinformazione dilagante e le crisi di salute mentale adolescenziale.

Se la Sezione 43201(c) diventa legge, non solo ritarderà la regolamentazione, ma segnalerà alle aziende che la corsa alla scala è più importante del diritto del pubblico alla sicurezza.

Il futuro dell’IA non dovrebbe essere dettato solo da associazioni commerciali e lobby di Big Tech; dovrebbe riflettere i valori pubblici, inclusa la responsabilità, l’equità e il diritto di cercare risarcimento quando si subiscono danni.

Il Congresso ha ancora una scelta: può sostenere una partnership federale-statale vivace sulla governance dell’IA, oppure può silenziare i legislatori che hanno agito per proteggere il pubblico. Le poste in gioco non potrebbero essere più alte.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...