Dopo il veto della Virginia: futuro incerto per la legislazione statale sull’IA

Dopo il veto della legge sull’IA in Virginia: Cosa ci aspetta per la legislazione statale sull’IA?

Il 24 marzo 2025, il governatore repubblicano della Virginia, Glenn Youngkin, ha veto la House Bill 2094 (VA HB2094), la legge sull’intelligenza artificiale (IA) della Virginia. Questa legge era stata approvata con una maggioranza risicata di 21 a 19 voti nel Senato della Virginia il 19 febbraio. Prima di essere bloccata, si stava preparando per diventare la seconda legge statale orizzontale sull’IA negli Stati Uniti, seguendo la legge statale del Colorado (CO SB24-205), che era stata firmata il 17 maggio 2024.

Ma la VA HB2094 è emersa in condizioni politiche molto diverse rispetto al suo predecessore. Infatti, meno di un mese prima della sua adozione, il neo-eletto presidente Donald Trump aveva rilasciato il suo Ordine Esecutivo sull’IA, tre giorni dopo aver annullato

Analisi della legge sull’IA della Virginia: somiglianze e differenze rispetto alla legge sull’IA dell’UE

Un’analisi superficiale del testo della VA HB2094 mostra alcune somiglianze con la legge sull’IA dell’UE. Tuttavia, queste sono per lo più limitate a definizioni e concetti presi in prestito, mentre le differenze negli obblighi e nell’applicazione sono molto più sostanziali. La legge della Virginia, infatti, è lunga solo 6.000 parole, mentre la legge sull’IA dell’UE raggiunge quasi 90.000.

Somiglianza 1: Definizioni

La prima chiara somiglianza tra la VA HB2094 e la legge sull’IA dell’UE si trova nella definizione di sistema IA. Entrambi hanno preso in prestito la definizione dall’Organizzazione per la cooperazione e lo sviluppo economico (OECD), approvata durante l’amministrazione Trump. Tuttavia, mentre la legge dell’UE utilizza tutti gli elementi della definizione OECD, la VA HB2094 omette un elemento importante: “I diversi sistemi IA variano nei loro livelli di autonomia e adattabilità dopo il dispiegamento”. Questa omissione potrebbe avere conseguenze significative, ampliando l’ambito regolatorio per includere una gamma più ampia di sistemi più semplici.

Somiglianza 2: Approccio basato sul rischio e classificazione

Sia la legge dell’UE che la VA HB2094 adottano un approccio basato sul rischio, il che significa che l’ambito regolatorio è basato sui casi d’uso dell’IA e che i requisiti regolatori differiscono a seconda della categoria di rischio d’uso. Mentre la legge dell’UE introduce usi vietati dell’IA, la VA HB2094 si concentra solo sui sistemi IA ad alto rischio.

Differenza 1: Sicurezza dei prodotti

Una delle principali differenze è che la legge dell’UE si concentra sulla sicurezza dei prodotti, mentre la VA HB2094 si occupa solo di decisioni algoritmiche. In altre parole, mentre la legge dell’UE richiede che ogni sistema IA sia conforme, la VA HB2094 impone obblighi solo a sviluppatori e utilizzatori, non sul modo in cui il sistema IA stesso è costruito.

Differenza 2: Allocazione e ambito delle responsabilità

Un’altra importante differenza deriva dalla natura delle due leggi: la legge dell’UE pone la maggior parte del peso sui fornitori, mentre la legge della Virginia pone un onere maggiore sugli utilizzatori di IA ad alto rischio. Questo significa che i fornitori devono conformarsi a requisiti più severi rispetto agli utilizzatori.

Differenza 3: Estensione degli obblighi

In aggiunta a essere meno numerosi, gli obblighi contenuti nella VA HB2094 sono di portata più leggera. La legge fa riferimento a standard come il framework di gestione dei rischi sviluppato dal National Institute of Standards and Technology (NIST), ma non richiede che i sistemi IA siano costruiti in un certo modo.

Differenza 4: Esenzioni

La legge della Virginia include diverse esenzioni per casi d’uso e settori. Per esempio, la legge esclude 19 sistemi dalle sue obbligazioni, da videogiochi a software antivirus, e non include i veicoli autonomi che sono considerati ad alto rischio dalla legge dell’UE.

Differenza 5: Esecuzione

Infine, la VA HB2094 affida la responsabilità di enforcement all’Attorney General, mentre la legge dell’UE si basa su un sistema di autorità di vigilanza di mercato nazionali già codificato. Questo sistema di enforcement è molto più complesso rispetto a quello della Virginia, dove la responsabilità è semplificata.

Raccomandazioni per i legislatori statali

Due principali raccomandazioni emergono dall’analisi delle somiglianze e differenze tra la legge dell’UE e la VA HB2094. Prima di tutto, i legislatori statali dovrebbero utilizzare l’intera versione rivista della definizione OECD di “sistema IA”, per evitare di coprire troppi sistemi meno sofisticati. In secondo luogo, dovrebbero considerare attentamente il carico di responsabilità tra sviluppatori e utilizzatori, poiché gli utilizzatori spesso sono attori più piccoli e meno esperti.

Conclusione

Il governatore Youngkin ha deciso di veto della VA HB2094 non perché la legge fosse una versione virginiana della legge dell’UE, ma a causa della maggioranza repubblicana dello stato e della tendenza antiregolamentare attuale. Le somiglianze tra la legge e l’UE sono per lo più concettuali e finiscono per avere un impatto favorevole per le imprese. Tuttavia, le ampie esenzioni e le obbligazioni molto leggere rendono la legge della Virginia sostanzialmente diversa dalla legge dell’UE e rafforzano la sensazione che sarebbe stata molto più favorevole all’industria.

More Insights

Opportunità mancate per l’AI: il G7 e la governance globale

I leader del G7 si sono riuniti in Alberta, Canada, ma la questione della governance dell'intelligenza artificiale è stata praticamente assente dai dibattiti. Questa omissione è particolarmente...

Intelligenza Artificiale: L’Africa Riscopre la Sovranità

I leader africani hanno chiesto azioni urgenti per costruire sistemi di intelligenza artificiale sovrani ed etici, adattati alle esigenze locali. È fondamentale garantire che l'IA supporti la...

Regolamenti AI: Le Sfide di Compliance e Innovazione

Con lo sviluppo dell'IA in tutto il mondo, diventa sempre più difficile applicare regolamenti efficaci. Le aziende tecnologiche multinazionali devono affrontare sfide complesse a causa della diversità...

Il Futuro dell’Intelligenza Artificiale in Cina: Un Percorso Unico

La competizione tra Stati Uniti e Cina nell'intelligenza artificiale è considerata la rivalità tecnologica definitoria del nostro tempo. Cina e Stati Uniti potrebbero sviluppare "varietà" diverse di...

AI e Finanza: Sfide e Opportunità di Compliance

Un nuovo sondaggio di Smarsh ha rivelato che, mentre gli strumenti di intelligenza artificiale vengono rapidamente adottati nei servizi finanziari del Regno Unito, molti dipendenti rimangono...

Etica dell’IA: le nuove sfide nella rivalità USA-Cina

Con l'approfondirsi della rivalità tecnologica tra Stati Uniti e Cina, un'agenzia delle Nazioni Unite sta spingendo per standard globali sull'etica dell'IA. UNESCO ha tenuto il suo terzo Forum Globale...

Sicurezza e AI: Adattarsi al Regolamento UE

Il DSPM gioca un ruolo fondamentale nell'aiutare le organizzazioni a conformarsi ai requisiti rigorosi del Regolamento sull'IA dell'UE, garantendo una distribuzione sicura dell'IA e la sicurezza dei...

Legge contro l’IA avversaria: la nuova frontiera della sicurezza nazionale

Un gruppo bipartisan di legislatori statunitensi ha introdotto il "No Adversarial AI Act", che mira a vietare l'uso di strumenti di intelligenza artificiale sviluppati in nazioni avversarie come Cina...

Personalizza l’IA responsabile con i nuovi livelli di sicurezza in Amazon Bedrock Guardrails

Amazon Bedrock Guardrails fornisce salvaguardie configurabili per costruire applicazioni di intelligenza artificiale generativa affidabili su larga scala. Con i nuovi livelli di salvaguardia, le...