Dopo il veto della Virginia: futuro incerto per la legislazione statale sull’IA

Dopo il veto della legge sull’IA in Virginia: Cosa ci aspetta per la legislazione statale sull’IA?

Il 24 marzo 2025, il governatore repubblicano della Virginia, Glenn Youngkin, ha veto la House Bill 2094 (VA HB2094), la legge sull’intelligenza artificiale (IA) della Virginia. Questa legge era stata approvata con una maggioranza risicata di 21 a 19 voti nel Senato della Virginia il 19 febbraio. Prima di essere bloccata, si stava preparando per diventare la seconda legge statale orizzontale sull’IA negli Stati Uniti, seguendo la legge statale del Colorado (CO SB24-205), che era stata firmata il 17 maggio 2024.

Ma la VA HB2094 è emersa in condizioni politiche molto diverse rispetto al suo predecessore. Infatti, meno di un mese prima della sua adozione, il neo-eletto presidente Donald Trump aveva rilasciato il suo Ordine Esecutivo sull’IA, tre giorni dopo aver annullato

Analisi della legge sull’IA della Virginia: somiglianze e differenze rispetto alla legge sull’IA dell’UE

Un’analisi superficiale del testo della VA HB2094 mostra alcune somiglianze con la legge sull’IA dell’UE. Tuttavia, queste sono per lo più limitate a definizioni e concetti presi in prestito, mentre le differenze negli obblighi e nell’applicazione sono molto più sostanziali. La legge della Virginia, infatti, è lunga solo 6.000 parole, mentre la legge sull’IA dell’UE raggiunge quasi 90.000.

Somiglianza 1: Definizioni

La prima chiara somiglianza tra la VA HB2094 e la legge sull’IA dell’UE si trova nella definizione di sistema IA. Entrambi hanno preso in prestito la definizione dall’Organizzazione per la cooperazione e lo sviluppo economico (OECD), approvata durante l’amministrazione Trump. Tuttavia, mentre la legge dell’UE utilizza tutti gli elementi della definizione OECD, la VA HB2094 omette un elemento importante: “I diversi sistemi IA variano nei loro livelli di autonomia e adattabilità dopo il dispiegamento”. Questa omissione potrebbe avere conseguenze significative, ampliando l’ambito regolatorio per includere una gamma più ampia di sistemi più semplici.

Somiglianza 2: Approccio basato sul rischio e classificazione

Sia la legge dell’UE che la VA HB2094 adottano un approccio basato sul rischio, il che significa che l’ambito regolatorio è basato sui casi d’uso dell’IA e che i requisiti regolatori differiscono a seconda della categoria di rischio d’uso. Mentre la legge dell’UE introduce usi vietati dell’IA, la VA HB2094 si concentra solo sui sistemi IA ad alto rischio.

Differenza 1: Sicurezza dei prodotti

Una delle principali differenze è che la legge dell’UE si concentra sulla sicurezza dei prodotti, mentre la VA HB2094 si occupa solo di decisioni algoritmiche. In altre parole, mentre la legge dell’UE richiede che ogni sistema IA sia conforme, la VA HB2094 impone obblighi solo a sviluppatori e utilizzatori, non sul modo in cui il sistema IA stesso è costruito.

Differenza 2: Allocazione e ambito delle responsabilità

Un’altra importante differenza deriva dalla natura delle due leggi: la legge dell’UE pone la maggior parte del peso sui fornitori, mentre la legge della Virginia pone un onere maggiore sugli utilizzatori di IA ad alto rischio. Questo significa che i fornitori devono conformarsi a requisiti più severi rispetto agli utilizzatori.

Differenza 3: Estensione degli obblighi

In aggiunta a essere meno numerosi, gli obblighi contenuti nella VA HB2094 sono di portata più leggera. La legge fa riferimento a standard come il framework di gestione dei rischi sviluppato dal National Institute of Standards and Technology (NIST), ma non richiede che i sistemi IA siano costruiti in un certo modo.

Differenza 4: Esenzioni

La legge della Virginia include diverse esenzioni per casi d’uso e settori. Per esempio, la legge esclude 19 sistemi dalle sue obbligazioni, da videogiochi a software antivirus, e non include i veicoli autonomi che sono considerati ad alto rischio dalla legge dell’UE.

Differenza 5: Esecuzione

Infine, la VA HB2094 affida la responsabilità di enforcement all’Attorney General, mentre la legge dell’UE si basa su un sistema di autorità di vigilanza di mercato nazionali già codificato. Questo sistema di enforcement è molto più complesso rispetto a quello della Virginia, dove la responsabilità è semplificata.

Raccomandazioni per i legislatori statali

Due principali raccomandazioni emergono dall’analisi delle somiglianze e differenze tra la legge dell’UE e la VA HB2094. Prima di tutto, i legislatori statali dovrebbero utilizzare l’intera versione rivista della definizione OECD di “sistema IA”, per evitare di coprire troppi sistemi meno sofisticati. In secondo luogo, dovrebbero considerare attentamente il carico di responsabilità tra sviluppatori e utilizzatori, poiché gli utilizzatori spesso sono attori più piccoli e meno esperti.

Conclusione

Il governatore Youngkin ha deciso di veto della VA HB2094 non perché la legge fosse una versione virginiana della legge dell’UE, ma a causa della maggioranza repubblicana dello stato e della tendenza antiregolamentare attuale. Le somiglianze tra la legge e l’UE sono per lo più concettuali e finiscono per avere un impatto favorevole per le imprese. Tuttavia, le ampie esenzioni e le obbligazioni molto leggere rendono la legge della Virginia sostanzialmente diversa dalla legge dell’UE e rafforzano la sensazione che sarebbe stata molto più favorevole all’industria.

More Insights

Governanza AI: Impatti Transatlantici e Nuove Responsabilità Aziendali

Questo progetto di ricerca indaga come il Regolamento sull'Intelligenza Artificiale dell'UE stia catalizzando una trasformazione sistemica nei quadri di governance e responsabilità aziendale. Esamina...

AI e Governance: Riformare la Sicurezza e la Conformità nel Settore Rischio

L'intelligenza artificiale e le tecnologie di IA sono fondamentali per il successo della funzione di rischio. I chief risk officer (CRO) possono utilizzare l'IA per affrontare la conformità e navigare...

Senato elimina il blocco sulle leggi sull’IA

Il Senato degli Stati Uniti ha votato 99-1 per rimuovere un provvedimento che avrebbe bloccato gli stati dalla regolamentazione dell'intelligenza artificiale per il prossimo decennio. Questo...

La crisi della sicurezza dei dati nell’industria farmaceutica

L'industria farmaceutica si trova a un bivio pericoloso, con solo il 17% delle organizzazioni che ha implementato controlli automatici per prevenire la perdita di dati sensibili attraverso strumenti...

Governanza AI: Impatti Transatlantici e Nuove Responsabilità Aziendali

Questo progetto di ricerca indaga come il Regolamento sull'Intelligenza Artificiale dell'UE stia catalizzando una trasformazione sistemica nei quadri di governance e responsabilità aziendale. Esamina...

AI e Sicurezza: Affrontare la Nuova Era delle Minacce

Le organizzazioni devono affrontare una nuova realtà: l'IA sta rapidamente rimodellando il panorama delle minacce informatiche. Mentre l'IA aiuta a migliorare la rilevazione e la risposta, porta anche...

Governare l’Intelligenza Artificiale: Verso un Futuro Sostenibile

La Thailandia ha redatto principi per la legislazione sull'intelligenza artificiale (AI), mirando a stabilire un ecosistema AI e ad ampliare l'adozione. La nuova legge dovrebbe fornire protezione agli...

Leggi Texane per una Governance Responsabile dell’Intelligenza Artificiale in Sanità

Il Texas ha adottato leggi complete sulla governance dell'intelligenza artificiale con disposizioni specifiche per il settore sanitario, inclusa la legge HB 149. Questa legge stabilisce un quadro per...

Intelligenza Artificiale: Garanzia di Allineamento e Governance

Gillian K. Hadfield è stata nominata Professore Distinto Bloomberg di Allineamento e Governance dell'IA presso la Johns Hopkins University. È riconosciuta a livello internazionale per la sua ricerca...