Legge Virginia: Regole per l’Intelligenza Artificiale ad Alto Rischio

Legge sui Sviluppatori e Distributori di AI ad Alto Rischio della Virginia in Attesa della Firma del Governatore

Il 20 febbraio 2025, l’Assemblea Generale della Virginia ha approvato l’HB 2094, la Legge sui Sviluppatori e Distributori di Intelligenza Artificiale ad Alto Rischio (di seguito “la Legge”). Questa legge, in attesa della firma del Governatore Youngkin, potrebbe rendere la Virginia il secondo stato, dopo il Colorado, ad adottare una legislazione che affronta la discriminazione algoritmica.

Definizione di Sistemi di Intelligenza Artificiale ad Alto Rischio

La Legge si applica solo ai sistemi di intelligenza artificiale ad alto rischio, definiti come “qualsiasi sistema di intelligenza artificiale specificamente destinato a prendere decisioni consequenziali in modo autonomo o a essere un fattore sostanziale nella loro determinazione.” Un sistema di intelligenza artificiale è definito come “un sistema basato sull’apprendimento automatico che, per qualsiasi obiettivo esplicito o implicito, inferisce dagli input ricevuti come generare output che possono influenzare ambienti fisici o virtuali.”

Decisioni Consequenziali

Solo i sviluppatori e i distributori di sistemi di intelligenza artificiale ad alto rischio coinvolti nella presa di decisioni consequenziali sarebbero soggetti alla Legge. Le decisioni consequenziali comprendono, ma non si limitano a:

  1. Parole, libertà vigilata, indulti o qualsiasi altra forma di rilascio dall’incarcerazione;
  2. Iscrizione o opportunità educativa;
  3. Accesso all’occupazione;
  4. Servizi finanziari o di prestito;
  5. Accesso ai servizi sanitari;
  6. Alloggio;
  7. Assicurazione;
  8. Stato civile;
  9. Servizi legali.

Obblighi dei Sviluppatori e Distributori

La Legge richiede che gli sviluppatori e i distributori di sistemi di intelligenza artificiale ad alto rischio conducano valutazioni del rischio e documentino i loro usi e limitazioni previsti. Le aziende devono fornire disclosure chiare riguardo alle prestazioni, alle limitazioni e ai potenziali pregiudizi dei loro sistemi di intelligenza artificiale.

Esenzioni e Tecnologie Escluse

La Legge non si applica a sistemi destinati a:

  1. Eseguire un compito procedurale ristretto;
  2. Migliorare i risultati di attività umane precedentemente completate;
  3. Rilevare modelli decisionali o deviazioni da modelli decisionali preesistenti;
  4. Eseguire un compito preparatorio per una valutazione rilevante a una decisione consequenziale.

Inoltre, diverse tecnologie sono specificamente escluse dalla Legge, tra cui:

  • Tecnologia anti-frode che non utilizza il riconoscimento facciale;
  • Video game abilitati all’intelligenza artificiale;
  • Tecnologia per veicoli autonomi;
  • Tecnologia di cybersecurity;
  • Database e tecnologie di archiviazione dati;
  • Filtraggio di spam e chiamate automatiche;
  • Tecnologia che comunica con i consumatori in linguaggio naturale.

Preoccupazioni e Esenzioni per Settori Specifici

Durante il dibattito su questa legge, molte entità hanno espresso preoccupazioni che le restrizioni sull’uso dell’AI potrebbero danneggiare le loro attività. La Sezione 59.1-610 elenca le attività esenti da restrizioni, consentendo ai sviluppatori e distributori di conformarsi alle normative federali, statali o municipali.

Entrata in Vigore della Legge

Se firmata dal governatore, la Legge entrerà in vigore il 1 luglio 2026. L’Ufficio del Procuratore Generale della Virginia avrà l’autorità esclusiva di applicare le disposizioni della Legge.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...