Texas Introduce una Legge Completa sull’IA: Requisiti di Divulgazione, Consenso e Conformità in Vigore nel 2026
Il 22 giugno 2025, il Governatore del Texas, Greg Abbott, ha firmato la House Bill 149, che ha istituito il Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Questa legge rappresenta uno dei più completi quadri normativi statali sull’intelligenza artificiale (IA) negli Stati Uniti.
Il TRAIGA impone requisiti di divulgazione, consenso e conformità per gli sviluppatori, i distributori e le entità governative che utilizzano sistemi di intelligenza artificiale. La legge entrerà in vigore il 1° gennaio 2026.
Definizione di Sistema di Intelligenza Artificiale
La legge definisce un “sistema di intelligenza artificiale” come qualsiasi sistema basato su macchine che utilizza input per generare contenuti, decisioni, previsioni o raccomandazioni che possono influenzare ambienti fisici o virtuali. L’obiettivo è promuovere lo sviluppo e l’uso responsabile dell’IA, proteggendo al contempo gli individui dai rischi prevedibili attraverso una supervisione strutturata e requisiti di divulgazione.
Disposizioni Chiave del TRAIGA
- Protezione del Consumatore: La legge vieta l’uso di modelli di IA che discriminano intenzionalmente classi protette, violano diritti costituzionali o incitano a danni. Inoltre, le entità governative non possono utilizzare l’IA per identificare individui tramite dati biometrici senza consenso informato o per assegnare punteggi sociali basati su comportamenti o caratteristiche personali.
- Linee Guida di Divulgazione: Qualsiasi entità governativa o commerciale che distribuisce un sistema di IA destinato a interagire con i consumatori deve fornire una divulgazione chiara e evidente in linguaggio semplice. La divulgazione deve avvenire prima o al momento dell’interazione, evitando l’uso di design ingannevoli noti come “dark patterns”.
- Programma di Sandbox Regolatoria per l’IA: Soggetto all’approvazione del Dipartimento delle Risorse Informatiche e delle agenzie competenti, una persona può testare un programma di IA in un ambiente controllato senza dover essere autorizzata secondo le leggi del Texas. Durante questo periodo di test, il procuratore generale non può intentare o perseguire cause contro un partecipante per violazioni avvenute durante questo periodo.
- Safe Harbors: Le entità che rispettano sostanzialmente quadri di gestione del rischio riconosciuti, come il NIST AI Risk Management Framework, o che rilevano violazioni attraverso audit interni o test avversariali, possono qualificarsi per la protezione contro l’applicazione della legge.
- Applicazione e Sanzioni Civili: Il Procuratore Generale del Texas detiene l’autorità esclusiva di applicazione. Le sanzioni civili variano da $10.000 a $200.000 per violazione, con penalità quotidiane per la non conformità continuata.
Implementazione Pratica
Con il TRAIGA, il Texas diventa il secondo stato a adottare un quadro normativo completo per l’IA, seguendo il Colorado, che ha emanato la sua legge sull’IA nel 2024. Mentre gli stati continuano a seguire approcci divergenti alla regolamentazione dell’IA, come il recente veto della legge sull’IA da parte del governatore della Virginia, i partecipanti al mercato devono monitorare attentamente l’evoluzione di questo mosaico di normative statali per valutare gli obblighi di conformità e pianificare gli impatti operativi attraverso le giurisdizioni.