Legge Virginia: Regole per l’Intelligenza Artificiale ad Alto Rischio

Legge sui Sviluppatori e Distributori di AI ad Alto Rischio della Virginia in Attesa della Firma del Governatore

Il 20 febbraio 2025, l’Assemblea Generale della Virginia ha approvato l’HB 2094, la Legge sui Sviluppatori e Distributori di Intelligenza Artificiale ad Alto Rischio (di seguito “la Legge”). Questa legge, in attesa della firma del Governatore Youngkin, potrebbe rendere la Virginia il secondo stato, dopo il Colorado, ad adottare una legislazione che affronta la discriminazione algoritmica.

Definizione di Sistemi di Intelligenza Artificiale ad Alto Rischio

La Legge si applica solo ai sistemi di intelligenza artificiale ad alto rischio, definiti come “qualsiasi sistema di intelligenza artificiale specificamente destinato a prendere decisioni consequenziali in modo autonomo o a essere un fattore sostanziale nella loro determinazione.” Un sistema di intelligenza artificiale è definito come “un sistema basato sull’apprendimento automatico che, per qualsiasi obiettivo esplicito o implicito, inferisce dagli input ricevuti come generare output che possono influenzare ambienti fisici o virtuali.”

Decisioni Consequenziali

Solo i sviluppatori e i distributori di sistemi di intelligenza artificiale ad alto rischio coinvolti nella presa di decisioni consequenziali sarebbero soggetti alla Legge. Le decisioni consequenziali comprendono, ma non si limitano a:

  1. Parole, libertà vigilata, indulti o qualsiasi altra forma di rilascio dall’incarcerazione;
  2. Iscrizione o opportunità educativa;
  3. Accesso all’occupazione;
  4. Servizi finanziari o di prestito;
  5. Accesso ai servizi sanitari;
  6. Alloggio;
  7. Assicurazione;
  8. Stato civile;
  9. Servizi legali.

Obblighi dei Sviluppatori e Distributori

La Legge richiede che gli sviluppatori e i distributori di sistemi di intelligenza artificiale ad alto rischio conducano valutazioni del rischio e documentino i loro usi e limitazioni previsti. Le aziende devono fornire disclosure chiare riguardo alle prestazioni, alle limitazioni e ai potenziali pregiudizi dei loro sistemi di intelligenza artificiale.

Esenzioni e Tecnologie Escluse

La Legge non si applica a sistemi destinati a:

  1. Eseguire un compito procedurale ristretto;
  2. Migliorare i risultati di attività umane precedentemente completate;
  3. Rilevare modelli decisionali o deviazioni da modelli decisionali preesistenti;
  4. Eseguire un compito preparatorio per una valutazione rilevante a una decisione consequenziale.

Inoltre, diverse tecnologie sono specificamente escluse dalla Legge, tra cui:

  • Tecnologia anti-frode che non utilizza il riconoscimento facciale;
  • Video game abilitati all’intelligenza artificiale;
  • Tecnologia per veicoli autonomi;
  • Tecnologia di cybersecurity;
  • Database e tecnologie di archiviazione dati;
  • Filtraggio di spam e chiamate automatiche;
  • Tecnologia che comunica con i consumatori in linguaggio naturale.

Preoccupazioni e Esenzioni per Settori Specifici

Durante il dibattito su questa legge, molte entità hanno espresso preoccupazioni che le restrizioni sull’uso dell’AI potrebbero danneggiare le loro attività. La Sezione 59.1-610 elenca le attività esenti da restrizioni, consentendo ai sviluppatori e distributori di conformarsi alle normative federali, statali o municipali.

Entrata in Vigore della Legge

Se firmata dal governatore, la Legge entrerà in vigore il 1 luglio 2026. L’Ufficio del Procuratore Generale della Virginia avrà l’autorità esclusiva di applicare le disposizioni della Legge.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...