Regolamenti sull’IA: Stati in Prima Linea

Le Statali Spingono per la Regolamentazione dell’IA mentre il Congresso Esita

Questo mese, il Senato degli Stati Uniti ha votato per annullare una disposizione controversa nel pacchetto fiscale e di spesa del presidente Trump, ufficialmente noto come One Big Beautiful Bill Act, che avrebbe bloccato stati e località dalla regolamentazione dell’IA per i prossimi dieci anni. La misura aveva suscitato una reazione bipartisan e i critici sostenevano che avrebbe privato gli stati della capacità di affrontare i danni causati dalla discriminazione algoritmica, dagli abusi della sorveglianza e dalla frode guidata dall’IA.

Il revival dell’azione statale avviene nel contesto di una crescente frustrazione per la mancanza di un quadro normativo federale unificato per l’IA. Mentre la comunità imprenditoriale ha fatto pressione per una legislazione nazionale preventiva per evitare la frammentazione normativa, molti stati si vedono come custodi essenziali in assenza di un’attenta supervisione congressuale. Nel frattempo, i gruppi industriali continuano a sollecitare Washington a lasciare spazio all’innovazione, specialmente nei settori che utilizzano l’IA per la rilevazione delle frodi e i guadagni di efficienza.

Legislazione Statale in Crescita

Con la fine del moratorio, più di 1.000 leggi relative all’IA sono tornate in gioco legislativo in tutti i 50 stati, Porto Rico, le Isole Vergini e Washington, D.C. Queste misure coprono una vasta gamma di questioni, inclusa la protezione dei dati biometrici, la trasparenza algoritmica e le restrizioni sugli strumenti di IA utilizzati nell’assunzione, nella giustizia penale e nell’istruzione. I legislatori in California, Colorado, New York e Texas stanno elaborando quadri normativi che impongono valutazioni del rischio, richiedono supervisione umana e proibiscono applicazioni di IA considerate discriminatorie o non sicure.

Modelli Decentralizzati di Governance dell’IA

L’amministrazione Trump ha generalmente favorito l’innovazione e l’autoregolamentazione dell’industria piuttosto che l’imposizione di politiche federali e mandati legislativi. David Sacks, un investitore in tecnologia di Internet e presidente del Consiglio di consulenza di Trump sulla scienza e la tecnologia, ha proposto un piano per l’IA del governo che riflette da vicino ciò per cui l’industria dell’IA sta facendo pressione. Tuttavia, il collasso del moratorio ha riaffermato un modello decentralizzato di governance dell’IA negli Stati Uniti.

Con il Congresso che valuta i suoi prossimi passi, gli stati stanno avanzando e impostando il tono su come saranno gestiti la responsabilità algoritmica e la sicurezza dell’IA. Questa decentralizzazione ha suscitato sia entusiasmo che preoccupazione. I sostenitori sostengono che gli stati siano meglio posizionati per elaborare leggi che riflettano i valori e le esigenze locali.

Preoccupazioni e Sfide Regolamentari

Tuttavia, i critici temono che la crescente complessità di un panorama normativo frammentato imponga pesanti oneri di conformità alle aziende che operano attraverso i confini statali. Gli esperti legali segnalano requisiti sovrapposti o contraddittori che potrebbero soffocare l’innovazione e aumentare l’incertezza legale per gli sviluppatori.

In assenza di un quadro nazionale, le assemblee legislative statali continuano a guidare l’iniziativa. Nonostante le differenze regionali, molti degli sforzi legislativi condividono principi comuni, enfatizzando la trasparenza, la responsabilità e la prevenzione dei danni.

Principali Sviluppi Normativi

Stati come California, Colorado, New York e Utah hanno anche incorporato valutazioni del rischio e protocolli di mitigazione dei pregiudizi nelle loro leggi, segnalando un crescente consenso sulla necessità di una governance etica dell’IA. Le normative californiane si basano sulla California Consumer Privacy Act, introducendo regole relative alle tecnologie di decisione automatizzata. La legge dell’IA del Colorado impone salvaguardie per i sistemi di IA ad alto rischio che influenzano l’accesso ai servizi essenziali. New York ora richiede alle agenzie pubbliche di divulgare il loro utilizzo di strumenti di IA e di eseguire valutazioni regolari dei pregiudizi.

In stati come Kentucky e Maryland, i legislatori si concentrano sulla protezione dei dati biometrici e sull’IA legata alla salute. Nel frattempo, stati come Texas e Montana hanno iniziato a regolamentare l’uso dell’IA nel contesto della sicurezza pubblica e della condanna penale.

Prospettive Future e Sviluppi Normativi Federali

Uno degli sviluppi più significativi attesi nei prossimi mesi è il ruolo del Senate Committee on Commerce nel plasmare la supervisione federale dell’IA. Un importante punto di attenzione è il Senate Bill 1290, il Artificial Intelligence and Critical Technology Workforce Framework Act, introdotto dal senatore Gary Peters (D-MI) con il supporto bipartisan. Il disegno di legge mira a rafforzare la forza lavoro statunitense nell’IA e in altre tecnologie critiche e incarica il National Institute of Standards and Technology (NIST) di sviluppare quadri nazionali per la forza lavoro nell’IA e nelle tecnologie critiche.

Il disegno di legge è visto come parte di uno sforzo più ampio per allineare la sicurezza nazionale, la competitività economica e i percorsi educativi con la governance dell’IA. Ha il supporto di vari gruppi industriali e associazioni professionali.

Conclusioni

Nel frattempo, gli stati sono diventati laboratori de facto per la regolamentazione dell’IA. I loro quadri normativi stanno già plasmando il modo in cui le aziende progettano, implementano e governano le loro tecnologie. Che si tratti di audit algoritmici obbligatori, requisiti di divulgazione o divieti su applicazioni ingannevoli, gli stati stanno impostando il tono per la responsabilità nell’IA.

In questo panorama in rapida evoluzione, la comunità imprenditoriale ha intensificato gli sforzi per esercitare pressione sul Congresso affinché adotti un quadro nazionale unificato per l’IA. Le grandi aziende tecnologiche e le associazioni di categoria stanno cercando di dimostrare l’urgenza di una normativa coerente che bilanci guardrail favorevoli all’innovazione con una responsabilità significativa.

More Insights

Rischi e opportunità nell’era dell’AI: Un confronto tra l’UE e gli Stati Uniti

In un recente episodio del podcast "Regulating AI", la Dott.ssa Cari Miller ha discusso le complessità del Piano d'Azione sull'IA degli Stati Uniti, enfatizzando l'urgenza della regolamentazione nelle...

Rischi invisibili dell’IA nei luoghi di lavoro

L'adozione dell'IA nelle aziende sta cambiando radicalmente il modo di lavorare, ma molte organizzazioni non sono pronte a gestire i rischi associati. È fondamentale che le aziende stabiliscano...

Investire nella Sicurezza dell’IA: Una Nuova Era di Opportunità

La rivoluzione dell'intelligenza artificiale è qui e sta rimodellando industrie e vite quotidiane. Per gli investitori, questo non è solo un problema etico, ma un'opportunità d'oro per capitalizzare...

Il Ruolo dell’IA nella Polizia Moderna

Le agenzie di applicazione della legge (LEA) stanno utilizzando sempre più l'intelligenza artificiale (AI) per migliorare le loro funzioni, in particolare con capacità avanzate per il policing...

Kenya guida il cambiamento nella governance dell’IA alle Nazioni Unite

Il Kenya ha ottenuto una vittoria diplomatica importante dopo che tutti i 193 Stati membri delle Nazioni Unite hanno concordato all'unanimità di istituire due istituzioni fondamentali per governare...

Guida all’adozione responsabile dell’IA per i leader sanitari

Con l'espansione rapida degli strumenti di intelligenza artificiale, i CMO e altri leader sanitari devono avere politiche in atto per l'adozione e la governance degli strumenti AI. L'American Medical...

Il futuro della governance dell’IA: il nuovo pannello scientifico delle Nazioni Unite

Le Nazioni Unite hanno adottato una risoluzione per istituire un Panel Scientifico Internazionale Indipendente sull'Intelligenza Artificiale e un Dialogo Globale sulla Governance dell'IA. Questo panel...

Minacce informatiche emergenti: dall’avvelenamento dei dati agli agenti AI

Le nuove minacce informatiche derivano dall'uso dell'intelligenza artificiale, con un aumento del 223% delle applicazioni di IA generativa nel dark web. Gli attacchi informatici possono includere il...

Etica e governance dell’IA nell’ASEAN

In questo articolo, Nguyen Hoang Minh Ngoc esplora il panorama attuale della governance e dell'etica dell'IA nel Sud-est asiatico. Viene sottolineata l'importanza di un quadro di governance robusto...