Legge Virginia: Regole per l’Intelligenza Artificiale ad Alto Rischio

Legge sui Sviluppatori e Distributori di AI ad Alto Rischio della Virginia in Attesa della Firma del Governatore

Il 20 febbraio 2025, l’Assemblea Generale della Virginia ha approvato l’HB 2094, la Legge sui Sviluppatori e Distributori di Intelligenza Artificiale ad Alto Rischio (di seguito “la Legge”). Questa legge, in attesa della firma del Governatore Youngkin, potrebbe rendere la Virginia il secondo stato, dopo il Colorado, ad adottare una legislazione che affronta la discriminazione algoritmica.

Definizione di Sistemi di Intelligenza Artificiale ad Alto Rischio

La Legge si applica solo ai sistemi di intelligenza artificiale ad alto rischio, definiti come “qualsiasi sistema di intelligenza artificiale specificamente destinato a prendere decisioni consequenziali in modo autonomo o a essere un fattore sostanziale nella loro determinazione.” Un sistema di intelligenza artificiale è definito come “un sistema basato sull’apprendimento automatico che, per qualsiasi obiettivo esplicito o implicito, inferisce dagli input ricevuti come generare output che possono influenzare ambienti fisici o virtuali.”

Decisioni Consequenziali

Solo i sviluppatori e i distributori di sistemi di intelligenza artificiale ad alto rischio coinvolti nella presa di decisioni consequenziali sarebbero soggetti alla Legge. Le decisioni consequenziali comprendono, ma non si limitano a:

  1. Parole, libertà vigilata, indulti o qualsiasi altra forma di rilascio dall’incarcerazione;
  2. Iscrizione o opportunità educativa;
  3. Accesso all’occupazione;
  4. Servizi finanziari o di prestito;
  5. Accesso ai servizi sanitari;
  6. Alloggio;
  7. Assicurazione;
  8. Stato civile;
  9. Servizi legali.

Obblighi dei Sviluppatori e Distributori

La Legge richiede che gli sviluppatori e i distributori di sistemi di intelligenza artificiale ad alto rischio conducano valutazioni del rischio e documentino i loro usi e limitazioni previsti. Le aziende devono fornire disclosure chiare riguardo alle prestazioni, alle limitazioni e ai potenziali pregiudizi dei loro sistemi di intelligenza artificiale.

Esenzioni e Tecnologie Escluse

La Legge non si applica a sistemi destinati a:

  1. Eseguire un compito procedurale ristretto;
  2. Migliorare i risultati di attività umane precedentemente completate;
  3. Rilevare modelli decisionali o deviazioni da modelli decisionali preesistenti;
  4. Eseguire un compito preparatorio per una valutazione rilevante a una decisione consequenziale.

Inoltre, diverse tecnologie sono specificamente escluse dalla Legge, tra cui:

  • Tecnologia anti-frode che non utilizza il riconoscimento facciale;
  • Video game abilitati all’intelligenza artificiale;
  • Tecnologia per veicoli autonomi;
  • Tecnologia di cybersecurity;
  • Database e tecnologie di archiviazione dati;
  • Filtraggio di spam e chiamate automatiche;
  • Tecnologia che comunica con i consumatori in linguaggio naturale.

Preoccupazioni e Esenzioni per Settori Specifici

Durante il dibattito su questa legge, molte entità hanno espresso preoccupazioni che le restrizioni sull’uso dell’AI potrebbero danneggiare le loro attività. La Sezione 59.1-610 elenca le attività esenti da restrizioni, consentendo ai sviluppatori e distributori di conformarsi alle normative federali, statali o municipali.

Entrata in Vigore della Legge

Se firmata dal governatore, la Legge entrerà in vigore il 1 luglio 2026. L’Ufficio del Procuratore Generale della Virginia avrà l’autorità esclusiva di applicare le disposizioni della Legge.

More Insights

Flussi AI Responsabili per la Ricerca UX

Questo articolo esplora come l'intelligenza artificiale può essere integrata in modo responsabile nei flussi di lavoro della ricerca UX, evidenziando i benefici e i rischi associati. L'AI può...

L’evoluzione dell’AI agentica nel settore bancario

L'AI agentica si riferisce a sistemi autonomi progettati per prendere decisioni e compiere azioni con input umano limitato, trasformando le operazioni bancarie e migliorando l'esperienza del cliente...

Compliance AI: Fondamento per un’infrastruttura crypto scalabile

L'industria delle criptovalute sta affrontando sfide normative complesse, rendendo necessarie piattaforme con sistemi di compliance basati su AI. Questi sistemi non solo migliorano la gestione del...

Governanza dell’IA in ASEAN: un percorso sfidante ma promettente

L'Associazione delle Nazioni del Sud-est Asiatico (ASEAN) sta adottando un approccio favorevole all'innovazione nell'intelligenza artificiale (IA) per avanzare verso un'economia digitale. Tuttavia...

Rischi e opportunità nell’era dell’AI: Un confronto tra l’UE e gli Stati Uniti

In un recente episodio del podcast "Regulating AI", la Dott.ssa Cari Miller ha discusso le complessità del Piano d'Azione sull'IA degli Stati Uniti, enfatizzando l'urgenza della regolamentazione nelle...

Rischi invisibili dell’IA nei luoghi di lavoro

L'adozione dell'IA nelle aziende sta cambiando radicalmente il modo di lavorare, ma molte organizzazioni non sono pronte a gestire i rischi associati. È fondamentale che le aziende stabiliscano...

Investire nella Sicurezza dell’IA: Una Nuova Era di Opportunità

La rivoluzione dell'intelligenza artificiale è qui e sta rimodellando industrie e vite quotidiane. Per gli investitori, questo non è solo un problema etico, ma un'opportunità d'oro per capitalizzare...

Il Ruolo dell’IA nella Polizia Moderna

Le agenzie di applicazione della legge (LEA) stanno utilizzando sempre più l'intelligenza artificiale (AI) per migliorare le loro funzioni, in particolare con capacità avanzate per il policing...

Kenya guida il cambiamento nella governance dell’IA alle Nazioni Unite

Il Kenya ha ottenuto una vittoria diplomatica importante dopo che tutti i 193 Stati membri delle Nazioni Unite hanno concordato all'unanimità di istituire due istituzioni fondamentali per governare...