Legge sull’Intelligenza Artificiale: La Trasparenza in Utah

Guida alla Legge TCAI: HB 286, l’Atto sulla Trasparenza dell’IA in Utah

Il 12 febbraio 2026, Utah è stata riconosciuta come leader nazionale nella gestione dell’intelligenza artificiale. L’anno scorso, il legislatore statale ha adottato leggi che richiedono la divulgazione delle interazioni con l’IA, regolano l’uso di chatbot per la salute mentale alimentati dall’IA e estendono le protezioni contro le deepfake generate dall’IA.

Quest’anno, i legislatori stanno considerando HB 286, l’Atto sulla Trasparenza dell’Intelligenza Artificiale. Questo disegno di legge richiederebbe ai sviluppatori di modelli di IA di grande frontiera di implementare piani per la sicurezza pubblica e la protezione dei minori.

Cosa prevede il disegno di legge

HB 286 si applica specificamente ai sviluppatori di modelli di IA di grande frontiera, i più grandi e potenti modelli. Non si applica a modelli più piccoli o a università che sviluppano o utilizzano modelli di frontiera per la ricerca.

Piano di sicurezza pubblica per rischi catastrofici

L’Atto richiede ai sviluppatori di modelli di grande frontiera di implementare e pubblicare un piano di sicurezza pubblica. Il piano deve includere:

  • Standard nazionali e migliori pratiche del settore;
  • Definire e valutare le soglie per identificare potenziali rischi catastrofici;
  • Applicare mitigazioni per affrontare i rischi potenziali;
  • Utilizzare terze parti per valutare i rischi e l’efficacia delle mitigazioni;
  • Rivalutare e aggiornare il piano;
  • Implementare pratiche di cybersecurity;
  • Identificare e rispondere a incidenti critici di sicurezza;
  • Istituire pratiche di governance interna per garantire la conformità all’Atto.

Per “rischio catastrofico” si intende un rischio che un modello di frontiera potrebbe contribuire alla creazione di un’arma chimica, biologica, radiologica o nucleare; o impegnarsi in un attacco informatico; o evadere il controllo dello sviluppatore o dell’utente del modello; o impegnarsi in qualsiasi condotta che violi la legge.

Piano di protezione dei minori

L’Atto richiede ai sviluppatori di modelli di frontiera di implementare e pubblicare un piano di protezione dei minori. Il piano deve:

  • Incorporare standard nazionali e migliori pratiche del settore;
  • Valutare il potenziale di rischi per la sicurezza dei minori;
  • Mitigare i potenziali rischi per la sicurezza dei minori;
  • Utilizzare terze parti per valutare il potenziale per i rischi per la sicurezza dei minori e l’efficacia dei piani di mitigazione;
  • Rivalutare e aggiornare il piano di protezione dei minori;
  • Identificare e rispondere a incidenti di sicurezza per i minori;
  • Istituire pratiche di governance interna per garantire l’attuazione di questi protocolli.

Per “rischio per la sicurezza dei minori” si intende un rischio che il modello di uno sviluppatore, quando utilizzato come parte di un chatbot, possa comportarsi in modo da causare morte o lesioni a un minore, inclusi autolesionismo o grave disagio emotivo.

Trasparenza

Ai sensi dell’Atto, un sviluppatore di modelli di grande frontiera non può fare dichiarazioni materialmente false o fuorvianti, o omissioni, riguardo ai rischi derivanti dalle attività del sviluppatore, dalla gestione o dalla conformità.

Redazioni consentite

Un sviluppatore di frontiera può effettuare redazioni nei documenti pubblici richiesti dall’Atto che sono necessarie per proteggere segreti commerciali, sicurezza informatica, sicurezza pubblica, sicurezza nazionale o conformità con leggi federali o statali. Lo sviluppatore deve descrivere e giustificare la redazione e mantenere le informazioni per cinque anni.

Segnalazione di incidenti di sicurezza

È possibile che l’Ufficio per la Politica dell’Intelligenza Artificiale dell’Utah stabilisca un meccanismo per i sviluppatori di frontiera o membri del pubblico per segnalare un incidente di sicurezza e stabilire procedure di conformità alternative se vengono stabiliti requisiti di segnalazione federali equivalenti o più severi.

Uno sviluppatore di frontiera deve segnalare un incidente di sicurezza all’Ufficio per la Politica dell’IA entro 15 giorni dalla scoperta dell’incidente. Un incidente critico di sicurezza che rappresenta un rischio imminente di morte o lesioni fisiche deve essere segnalato entro 24 ore a un’agenzia di pubblica sicurezza.

Uno sviluppatore di frontiera deve presentare un rapporto trimestrale all’Ufficio per la Politica dell’IA riassumendo le valutazioni dei rischi catastrofici derivanti dal modello dello sviluppatore, o in un programma alternativo concordato dall’Ufficio per la Politica dell’IA. Questi rapporti saranno classificati come registri protetti.

Protezione dei whistleblower

Uno sviluppatore di modelli di frontiera deve fornire un processo interno ragionevole per i dipendenti per segnalare in modo anonimo informazioni riguardanti minacce alla salute pubblica, o alla salute/sicurezza di un minore, o una violazione dell’Atto. Non è consentito adottare misure avverse contro un dipendente che ha o desidera fornire informazioni all’Ufficio per la Politica dell’IA.

Applicazione

L’Ufficio del Procuratore Generale dell’Utah farà rispettare l’Atto attraverso azioni civili.

Penalità

Uno sviluppatore di frontiera in violazione dell’Atto è soggetto a una pena civile fino a 1 milione di dollari per una prima violazione e fino a 3 milioni di dollari per ogni violazione successiva.

Data di entrata in vigore

L’Atto entrerà in vigore il 6 maggio 2026.

Panoramica dello sponsor

Secondo la testimonianza di uno degli sponsor, questo disegno di legge non mira a bandire l’IA né a punire l’innovazione, ma è necessario per affrontare i rischi associati all’uso di sistemi di IA potenti.

Inoltre, un noto imprenditore ha espresso preoccupazioni riguardo alla sicurezza dei bambini nell’era dell’IA, sottolineando la necessità di leggi che proteggano i minori dai rischi associati alle tecnologie emergenti.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...