Un’inquietante proposta nel bilancio congressuale: fermare la regolamentazione dell’IA
Negli ultimi giorni, l’attenzione dei media congressuali si è concentrata sulle proposte di tagli alla Medicaid, che priverebbero milioni di persone della copertura sanitaria. Tuttavia, un’altra misura, sostenuta dai Repubblicani della Camera, è passata sotto silenzio, ma avrà un impatto significativo su tutti gli americani.
Il Comitato dell’Energia e del Commercio della Camera degli Stati Uniti, votando lungo linee di partito, ha supportato una misura che prevede di precludere tutte le regolazioni statali e locali dell’IA per i prossimi dieci anni. Questa disposizione, sebbene fosse nascosta in una sezione specifica della proposta di riconciliazione del bilancio, priverebbe il pubblico di qualsiasi ricorso significativo di fronte ai danni legati all’IA.
Una licenza per l’impunità aziendale
Non si tratta semplicemente di una pausa nella regolamentazione; è un permesso decennale per l’impunità aziendale. Questa misura invia un messaggio chiaro agli stati: state in silenzio mentre Big Tech scrive le proprie regole o continua a fare lobbying presso il Congresso per non avere alcuna regola.
Negli ultimi anni, i legislatori federali hanno rinviato l’azione sulla regolamentazione dell’IA, mentre i leader statali, sia Repubblicani che Democratici, hanno preso l’iniziativa. In assenza di azioni federali, gli stati hanno stabilito salvaguardie dove l’IA sta rapidamente trasformando le nostre vite, incluse protezioni contro materiale elettorale deepfake, pornografia generata da IA, discriminazione algoritmica e responsabilità dei sistemi di veicoli autonomi.
Esempi di leggi statali che potrebbero essere bloccate
Qui ci sono solo alcuni esempi delle leggi statali che potrebbero essere bloccate dalla moratoria decennale sulla regolazione dell’IA:
- Due terzi degli stati statunitensi hanno leggi contro la pornografia generata da IA.
- La metà degli stati ha leggi contro i materiali elettorali ingannevoli generati da IA.
- La legge a livello statale del Colorado stabilisce meccanismi di protezione dei consumatori e responsabilità per le aziende di IA.
- Le leggi del Kentucky proteggono i cittadini dalla discriminazione da parte dell’IA.
- La legge ELVIS del Tennessee protegge contro il clonaggio vocale dell’IA.
- Una legge del Dakota del Nord proibisce alle compagnie di assicurazione sanitaria di utilizzare l’IA per prendere decisioni di autorizzazione sui trattamenti.
- Il Bill of Rights dell’IA di New York fornisce protezioni ai diritti civili e dei consumatori.
- Il supremo tribunale della Carolina del Sud ha emesso una direttiva per garantire l’integrazione responsabile e sicura dell’IA.
La risposta degli stati e la cooperazione bipartisan
Queste leggi riflettono il lavoro urgente dei legislatori statali per affrontare i rischi e i danni data l’inerzia del Congresso. Molti di questi legislatori sono stati stimolati all’azione da elettori che hanno vissuto esperienze negative a causa di prodotti e servizi basati sull’IA.
In un’epoca di politica iperpartitica, i legislatori statali hanno collaborato per attuare soluzioni politiche che cercano di affrontare alcuni dei danni significativi causati dall’IA. I primi anni di regolazione dell’IA a livello statale hanno incluso la creazione di numerosi studi e task force per valutare i migliori approcci per proteggere i cittadini.
Il futuro della regolamentazione dell’IA
La proposta di legge non crea uno standard nazionale per l’IA, ma crea un vuoto normativo di dieci anni durante il quale le aziende di IA potrebbero operare senza responsabilità. Nessuna causa legale. Nessuna indagine locale. Nessun mandato di trasparenza. Nessun nuovo diritto. Nessun dibattito democratico.
Abbiamo già visto questo copione in passato, quando il Congresso ha rinviato l’azione sui social media. Gli stati hanno cercato di colmare il divario, ma era troppo tardi per prevenire molte delle conseguenze che affrontiamo ora, come la disinformazione dilagante e le crisi di salute mentale adolescenziale.
Se la Sezione 43201(c) diventa legge, non solo ritarderà la regolamentazione, ma segnalerà alle aziende che la corsa alla scala è più importante del diritto del pubblico alla sicurezza.
Il futuro dell’IA non dovrebbe essere dettato solo da associazioni commerciali e lobby di Big Tech; dovrebbe riflettere i valori pubblici, inclusa la responsabilità, l’equità e il diritto di cercare risarcimento quando si subiscono danni.
Il Congresso ha ancora una scelta: può sostenere una partnership federale-statale vivace sulla governance dell’IA, oppure può silenziare i legislatori che hanno agito per proteggere il pubblico. Le poste in gioco non potrebbero essere più alte.