Dopo il veto della Virginia: futuro incerto per la legislazione statale sull’IA

Dopo il veto della legge sull’IA in Virginia: Cosa ci aspetta per la legislazione statale sull’IA?

Il 24 marzo 2025, il governatore repubblicano della Virginia, Glenn Youngkin, ha veto la House Bill 2094 (VA HB2094), la legge sull’intelligenza artificiale (IA) della Virginia. Questa legge era stata approvata con una maggioranza risicata di 21 a 19 voti nel Senato della Virginia il 19 febbraio. Prima di essere bloccata, si stava preparando per diventare la seconda legge statale orizzontale sull’IA negli Stati Uniti, seguendo la legge statale del Colorado (CO SB24-205), che era stata firmata il 17 maggio 2024.

Ma la VA HB2094 è emersa in condizioni politiche molto diverse rispetto al suo predecessore. Infatti, meno di un mese prima della sua adozione, il neo-eletto presidente Donald Trump aveva rilasciato il suo Ordine Esecutivo sull’IA, tre giorni dopo aver annullato

Analisi della legge sull’IA della Virginia: somiglianze e differenze rispetto alla legge sull’IA dell’UE

Un’analisi superficiale del testo della VA HB2094 mostra alcune somiglianze con la legge sull’IA dell’UE. Tuttavia, queste sono per lo più limitate a definizioni e concetti presi in prestito, mentre le differenze negli obblighi e nell’applicazione sono molto più sostanziali. La legge della Virginia, infatti, è lunga solo 6.000 parole, mentre la legge sull’IA dell’UE raggiunge quasi 90.000.

Somiglianza 1: Definizioni

La prima chiara somiglianza tra la VA HB2094 e la legge sull’IA dell’UE si trova nella definizione di sistema IA. Entrambi hanno preso in prestito la definizione dall’Organizzazione per la cooperazione e lo sviluppo economico (OECD), approvata durante l’amministrazione Trump. Tuttavia, mentre la legge dell’UE utilizza tutti gli elementi della definizione OECD, la VA HB2094 omette un elemento importante: “I diversi sistemi IA variano nei loro livelli di autonomia e adattabilità dopo il dispiegamento”. Questa omissione potrebbe avere conseguenze significative, ampliando l’ambito regolatorio per includere una gamma più ampia di sistemi più semplici.

Somiglianza 2: Approccio basato sul rischio e classificazione

Sia la legge dell’UE che la VA HB2094 adottano un approccio basato sul rischio, il che significa che l’ambito regolatorio è basato sui casi d’uso dell’IA e che i requisiti regolatori differiscono a seconda della categoria di rischio d’uso. Mentre la legge dell’UE introduce usi vietati dell’IA, la VA HB2094 si concentra solo sui sistemi IA ad alto rischio.

Differenza 1: Sicurezza dei prodotti

Una delle principali differenze è che la legge dell’UE si concentra sulla sicurezza dei prodotti, mentre la VA HB2094 si occupa solo di decisioni algoritmiche. In altre parole, mentre la legge dell’UE richiede che ogni sistema IA sia conforme, la VA HB2094 impone obblighi solo a sviluppatori e utilizzatori, non sul modo in cui il sistema IA stesso è costruito.

Differenza 2: Allocazione e ambito delle responsabilità

Un’altra importante differenza deriva dalla natura delle due leggi: la legge dell’UE pone la maggior parte del peso sui fornitori, mentre la legge della Virginia pone un onere maggiore sugli utilizzatori di IA ad alto rischio. Questo significa che i fornitori devono conformarsi a requisiti più severi rispetto agli utilizzatori.

Differenza 3: Estensione degli obblighi

In aggiunta a essere meno numerosi, gli obblighi contenuti nella VA HB2094 sono di portata più leggera. La legge fa riferimento a standard come il framework di gestione dei rischi sviluppato dal National Institute of Standards and Technology (NIST), ma non richiede che i sistemi IA siano costruiti in un certo modo.

Differenza 4: Esenzioni

La legge della Virginia include diverse esenzioni per casi d’uso e settori. Per esempio, la legge esclude 19 sistemi dalle sue obbligazioni, da videogiochi a software antivirus, e non include i veicoli autonomi che sono considerati ad alto rischio dalla legge dell’UE.

Differenza 5: Esecuzione

Infine, la VA HB2094 affida la responsabilità di enforcement all’Attorney General, mentre la legge dell’UE si basa su un sistema di autorità di vigilanza di mercato nazionali già codificato. Questo sistema di enforcement è molto più complesso rispetto a quello della Virginia, dove la responsabilità è semplificata.

Raccomandazioni per i legislatori statali

Due principali raccomandazioni emergono dall’analisi delle somiglianze e differenze tra la legge dell’UE e la VA HB2094. Prima di tutto, i legislatori statali dovrebbero utilizzare l’intera versione rivista della definizione OECD di “sistema IA”, per evitare di coprire troppi sistemi meno sofisticati. In secondo luogo, dovrebbero considerare attentamente il carico di responsabilità tra sviluppatori e utilizzatori, poiché gli utilizzatori spesso sono attori più piccoli e meno esperti.

Conclusione

Il governatore Youngkin ha deciso di veto della VA HB2094 non perché la legge fosse una versione virginiana della legge dell’UE, ma a causa della maggioranza repubblicana dello stato e della tendenza antiregolamentare attuale. Le somiglianze tra la legge e l’UE sono per lo più concettuali e finiscono per avere un impatto favorevole per le imprese. Tuttavia, le ampie esenzioni e le obbligazioni molto leggere rendono la legge della Virginia sostanzialmente diversa dalla legge dell’UE e rafforzano la sensazione che sarebbe stata molto più favorevole all’industria.

More Insights

Governanza dell’AI in Salute: Tra Innovazione e Sicurezza

Negli ultimi sei mesi, il panorama normativo sull'IA ha subito cambiamenti monumentali, con una crescente retorica che considera la regolamentazione come un ostacolo all'innovazione. È fondamentale...

Regole Ambigue: L’Industria AI Chiede un Rinvio della Legge Fondamentale

L'industria dell'IA esprime preoccupazioni riguardo agli standard normativi ambigui della legge fondamentale sull'IA, temendo che possano ostacolare la crescita del settore. Recentemente, Huang...

GDPR e AI: Rispettare la Privacy nel Marketing

Gli esperti di marketing devono affrontare le sfide della privacy dei dati con la conformità al GDPR e il nuovo EU AI Act. Queste normative richiedono trasparenza e consenso chiaro nell'uso dei dati...

La Piramide del Rischio nell’Atto UE sull’IA

Una delle caratteristiche distintive dell'EU AI Act è il suo approccio basato sul rischio. I sistemi di intelligenza artificiale non sono trattati allo stesso modo; come vengono regolati dipende dal...

AI agenti: le nuove frontiere della sicurezza e della regolamentazione

Le aziende di intelligenza artificiale affermano che le attuali normative possono governare l'intelligenza artificiale agentica, considerata la prossima evoluzione dell'IA generativa. Gli sviluppatori...

Divieto di AI nelle riunioni online: una scelta controversa

La Commissione Europea ha vietato l'uso di assistenti virtuali basati sull'IA durante le riunioni online, nonostante la crescente popolarità di tali strumenti. Questo divieto ha suscitato...

Riformare le Regole dell’AI: Un Futuro per l’Innovazione in Europa

OpenAI sollecita l'Unione Europea a semplificare le normative sull'intelligenza artificiale per evitare di soffocare l'innovazione e la competitività globale. La società afferma che regole...

Progettare Fiducia nell’AI Responsabile

L'integrazione rapida dell'intelligenza artificiale (AI) nella tecnologia quotidiana ha portato a grandi opportunità, ma anche a sfide etiche significative. I progettisti di prodotti stanno...

Interoperabilità nell’IA: Un Futuro Senza Fratture

Mentre ci troviamo a un punto critico nello sviluppo dell'IA, emerge una sfida di governance che potrebbe soffocare l'innovazione e creare divisioni digitali globali. L'attuale paesaggio della...