Legge Virginia: Regole per l’Intelligenza Artificiale ad Alto Rischio

Legge sui Sviluppatori e Distributori di AI ad Alto Rischio della Virginia in Attesa della Firma del Governatore

Il 20 febbraio 2025, l’Assemblea Generale della Virginia ha approvato l’HB 2094, la Legge sui Sviluppatori e Distributori di Intelligenza Artificiale ad Alto Rischio (di seguito “la Legge”). Questa legge, in attesa della firma del Governatore Youngkin, potrebbe rendere la Virginia il secondo stato, dopo il Colorado, ad adottare una legislazione che affronta la discriminazione algoritmica.

Definizione di Sistemi di Intelligenza Artificiale ad Alto Rischio

La Legge si applica solo ai sistemi di intelligenza artificiale ad alto rischio, definiti come “qualsiasi sistema di intelligenza artificiale specificamente destinato a prendere decisioni consequenziali in modo autonomo o a essere un fattore sostanziale nella loro determinazione.” Un sistema di intelligenza artificiale è definito come “un sistema basato sull’apprendimento automatico che, per qualsiasi obiettivo esplicito o implicito, inferisce dagli input ricevuti come generare output che possono influenzare ambienti fisici o virtuali.”

Decisioni Consequenziali

Solo i sviluppatori e i distributori di sistemi di intelligenza artificiale ad alto rischio coinvolti nella presa di decisioni consequenziali sarebbero soggetti alla Legge. Le decisioni consequenziali comprendono, ma non si limitano a:

  1. Parole, libertà vigilata, indulti o qualsiasi altra forma di rilascio dall’incarcerazione;
  2. Iscrizione o opportunità educativa;
  3. Accesso all’occupazione;
  4. Servizi finanziari o di prestito;
  5. Accesso ai servizi sanitari;
  6. Alloggio;
  7. Assicurazione;
  8. Stato civile;
  9. Servizi legali.

Obblighi dei Sviluppatori e Distributori

La Legge richiede che gli sviluppatori e i distributori di sistemi di intelligenza artificiale ad alto rischio conducano valutazioni del rischio e documentino i loro usi e limitazioni previsti. Le aziende devono fornire disclosure chiare riguardo alle prestazioni, alle limitazioni e ai potenziali pregiudizi dei loro sistemi di intelligenza artificiale.

Esenzioni e Tecnologie Escluse

La Legge non si applica a sistemi destinati a:

  1. Eseguire un compito procedurale ristretto;
  2. Migliorare i risultati di attività umane precedentemente completate;
  3. Rilevare modelli decisionali o deviazioni da modelli decisionali preesistenti;
  4. Eseguire un compito preparatorio per una valutazione rilevante a una decisione consequenziale.

Inoltre, diverse tecnologie sono specificamente escluse dalla Legge, tra cui:

  • Tecnologia anti-frode che non utilizza il riconoscimento facciale;
  • Video game abilitati all’intelligenza artificiale;
  • Tecnologia per veicoli autonomi;
  • Tecnologia di cybersecurity;
  • Database e tecnologie di archiviazione dati;
  • Filtraggio di spam e chiamate automatiche;
  • Tecnologia che comunica con i consumatori in linguaggio naturale.

Preoccupazioni e Esenzioni per Settori Specifici

Durante il dibattito su questa legge, molte entità hanno espresso preoccupazioni che le restrizioni sull’uso dell’AI potrebbero danneggiare le loro attività. La Sezione 59.1-610 elenca le attività esenti da restrizioni, consentendo ai sviluppatori e distributori di conformarsi alle normative federali, statali o municipali.

Entrata in Vigore della Legge

Se firmata dal governatore, la Legge entrerà in vigore il 1 luglio 2026. L’Ufficio del Procuratore Generale della Virginia avrà l’autorità esclusiva di applicare le disposizioni della Legge.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...