Guida alla Legge TCAI: HB 286, l’Atto sulla Trasparenza dell’IA in Utah
Il 12 febbraio 2026, Utah è stata riconosciuta come leader nazionale nella gestione dell’intelligenza artificiale. L’anno scorso, il legislatore statale ha adottato leggi che richiedono la divulgazione delle interazioni con l’IA, regolano l’uso di chatbot per la salute mentale alimentati dall’IA e estendono le protezioni contro le deepfake generate dall’IA.
Quest’anno, i legislatori stanno considerando HB 286, l’Atto sulla Trasparenza dell’Intelligenza Artificiale. Questo disegno di legge richiederebbe ai sviluppatori di modelli di IA di grande frontiera di implementare piani per la sicurezza pubblica e la protezione dei minori.
Cosa prevede il disegno di legge
HB 286 si applica specificamente ai sviluppatori di modelli di IA di grande frontiera, i più grandi e potenti modelli. Non si applica a modelli più piccoli o a università che sviluppano o utilizzano modelli di frontiera per la ricerca.
Piano di sicurezza pubblica per rischi catastrofici
L’Atto richiede ai sviluppatori di modelli di grande frontiera di implementare e pubblicare un piano di sicurezza pubblica. Il piano deve includere:
- Standard nazionali e migliori pratiche del settore;
- Definire e valutare le soglie per identificare potenziali rischi catastrofici;
- Applicare mitigazioni per affrontare i rischi potenziali;
- Utilizzare terze parti per valutare i rischi e l’efficacia delle mitigazioni;
- Rivalutare e aggiornare il piano;
- Implementare pratiche di cybersecurity;
- Identificare e rispondere a incidenti critici di sicurezza;
- Istituire pratiche di governance interna per garantire la conformità all’Atto.
Per “rischio catastrofico” si intende un rischio che un modello di frontiera potrebbe contribuire alla creazione di un’arma chimica, biologica, radiologica o nucleare; o impegnarsi in un attacco informatico; o evadere il controllo dello sviluppatore o dell’utente del modello; o impegnarsi in qualsiasi condotta che violi la legge.
Piano di protezione dei minori
L’Atto richiede ai sviluppatori di modelli di frontiera di implementare e pubblicare un piano di protezione dei minori. Il piano deve:
- Incorporare standard nazionali e migliori pratiche del settore;
- Valutare il potenziale di rischi per la sicurezza dei minori;
- Mitigare i potenziali rischi per la sicurezza dei minori;
- Utilizzare terze parti per valutare il potenziale per i rischi per la sicurezza dei minori e l’efficacia dei piani di mitigazione;
- Rivalutare e aggiornare il piano di protezione dei minori;
- Identificare e rispondere a incidenti di sicurezza per i minori;
- Istituire pratiche di governance interna per garantire l’attuazione di questi protocolli.
Per “rischio per la sicurezza dei minori” si intende un rischio che il modello di uno sviluppatore, quando utilizzato come parte di un chatbot, possa comportarsi in modo da causare morte o lesioni a un minore, inclusi autolesionismo o grave disagio emotivo.
Trasparenza
Ai sensi dell’Atto, un sviluppatore di modelli di grande frontiera non può fare dichiarazioni materialmente false o fuorvianti, o omissioni, riguardo ai rischi derivanti dalle attività del sviluppatore, dalla gestione o dalla conformità.
Redazioni consentite
Un sviluppatore di frontiera può effettuare redazioni nei documenti pubblici richiesti dall’Atto che sono necessarie per proteggere segreti commerciali, sicurezza informatica, sicurezza pubblica, sicurezza nazionale o conformità con leggi federali o statali. Lo sviluppatore deve descrivere e giustificare la redazione e mantenere le informazioni per cinque anni.
Segnalazione di incidenti di sicurezza
È possibile che l’Ufficio per la Politica dell’Intelligenza Artificiale dell’Utah stabilisca un meccanismo per i sviluppatori di frontiera o membri del pubblico per segnalare un incidente di sicurezza e stabilire procedure di conformità alternative se vengono stabiliti requisiti di segnalazione federali equivalenti o più severi.
Uno sviluppatore di frontiera deve segnalare un incidente di sicurezza all’Ufficio per la Politica dell’IA entro 15 giorni dalla scoperta dell’incidente. Un incidente critico di sicurezza che rappresenta un rischio imminente di morte o lesioni fisiche deve essere segnalato entro 24 ore a un’agenzia di pubblica sicurezza.
Uno sviluppatore di frontiera deve presentare un rapporto trimestrale all’Ufficio per la Politica dell’IA riassumendo le valutazioni dei rischi catastrofici derivanti dal modello dello sviluppatore, o in un programma alternativo concordato dall’Ufficio per la Politica dell’IA. Questi rapporti saranno classificati come registri protetti.
Protezione dei whistleblower
Uno sviluppatore di modelli di frontiera deve fornire un processo interno ragionevole per i dipendenti per segnalare in modo anonimo informazioni riguardanti minacce alla salute pubblica, o alla salute/sicurezza di un minore, o una violazione dell’Atto. Non è consentito adottare misure avverse contro un dipendente che ha o desidera fornire informazioni all’Ufficio per la Politica dell’IA.
Applicazione
L’Ufficio del Procuratore Generale dell’Utah farà rispettare l’Atto attraverso azioni civili.
Penalità
Uno sviluppatore di frontiera in violazione dell’Atto è soggetto a una pena civile fino a 1 milione di dollari per una prima violazione e fino a 3 milioni di dollari per ogni violazione successiva.
Data di entrata in vigore
L’Atto entrerà in vigore il 6 maggio 2026.
Panoramica dello sponsor
Secondo la testimonianza di uno degli sponsor, questo disegno di legge non mira a bandire l’IA né a punire l’innovazione, ma è necessario per affrontare i rischi associati all’uso di sistemi di IA potenti.
Inoltre, un noto imprenditore ha espresso preoccupazioni riguardo alla sicurezza dei bambini nell’era dell’IA, sottolineando la necessità di leggi che proteggano i minori dai rischi associati alle tecnologie emergenti.