TRAIGA: Principali disposizioni della nuova legge sulla governance dell’intelligenza artificiale del Texas
Il 31 maggio 2025, il legislatore del Texas ha approvato il House Bill 149, noto come Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Questa legge stabilisce requisiti di divulgazione per i sviluppatori e distributori di intelligenza artificiale (IA) operanti in Texas e delinea usi vietati dell’IA, oltre a stabilire sanzioni civili per le violazioni. Il 2 giugno 2025, il progetto di legge è stato inviato al governatore del Texas per la revisione e firmato in legge il 22 giugno. TRAIGA entrerà in vigore il 1° gennaio 2026, aggiungendosi a un elenco di stati, tra cui California, Colorado e Utah, che hanno approvato legislazioni sull’IA.
A chi si applica TRAIGA? Definizioni chiave
TRAIGA si applica a due gruppi: (1) persone e entità coperte, che includono sviluppatori e distributori, e (2) entità governative.
Persone e Entità Coperte
Le persone e le entità coperte sono definite come qualsiasi persona che (1) promuove, pubblicizza o conduce affari in Texas; (2) produce un prodotto o servizio utilizzato dai residenti del Texas; o (3) sviluppa o distribuisce un sistema di intelligenza artificiale in Texas.
Sviluppatori e Distributori
Un sviluppatore è una persona che sviluppa un sistema di intelligenza artificiale offerto, venduto, affittato, dato o fornito in altro modo in Texas, mentre un distributore è colui che distribuisce un sistema di intelligenza artificiale per l’uso in Texas.
Entità Governative
Un ente governativo è definito come qualsiasi dipartimento, commissione, consiglio, ufficio, autorità o altra unità amministrativa del Texas o di qualsiasi suddivisione politica del Texas che esercita funzioni governative ai sensi delle leggi del Texas. La definizione esclude specificamente i distretti ospedalieri e le istituzioni di istruzione superiore.
Consumatore
Un consumatore è un individuo residente in Texas che agisce solo in un contesto individuale o domestico. Pertanto, gli usi commerciali o lavorativi non sono soggetti a TRAIGA.
Sistema di Intelligenza Artificiale
TRAIGA definisce ampiamente un sistema di intelligenza artificiale come “qualsiasi sistema basato su macchine che, per qualsiasi obiettivo esplicito o implicito, inferisce dagli input ricevuti come generare output, comprese contenuti, decisioni, previsioni o raccomandazioni, che possono influenzare ambienti fisici o virtuali.”
Come sarà applicato TRAIGA?
L’ufficio del procuratore generale del Texas ha l’autorità esclusiva di applicare la legge, con rare eccezioni in cui le agenzie statali di licenza hanno un potere di applicazione limitato. Tuttavia, TRAIGA non prevede un diritto di azione privata.
Notifica e Opportunità di Correzione
Prima che il procuratore generale possa avviare un’azione, deve inviare una notifica scritta di violazione al presunto trasgressore. Il presunto trasgressore ha quindi 60 giorni per:
- correggere la violazione presunta;
- fornire documentazione di supporto che dimostri la correzione;
- aggiornare o rivedere le politiche interne per prevenire ulteriori violazioni.
Pene Civili
TRAIGA stabilisce anche pene civili che includono le seguenti categorie:
- Violazioni curabili: $10,000 – $12,000 per violazione;
- Violazioni incurabili: $80,000 – $200,000 per violazione;
- Violazioni continuative: $2,000 – $40,000 al giorno.
Inoltre, il procuratore generale può richiedere un provvedimento ingiuntivo, spese legali e costi di indagine.
Porti Sicuri
TRAIGA prevede porti sicuri e difese affermative. Una persona non è responsabile ai sensi di TRAIGA se:
- un terzo party abusa dell’IA in un modo vietato da TRAIGA;
- la persona scopre una violazione attraverso test o audit di buona fede;
- la persona rispetta sostanzialmente il Framework di Gestione del Rischio dell’IA del NIST o standard simili riconosciuti.
Come funzionerà TRAIGA?
Le sezioni relative alle divulgazioni ai consumatori e agli usi vietati dell’IA potrebbero avere implicazioni per le aziende.
Divulgazione ai Consumatori
Le agenzie governative sono tenute a divulgare a ciascun consumatore, prima o al momento dell’interazione, che il consumatore sta interagendo con l’IA, anche se tale divulgazione sarebbe ovvia per un consumatore ragionevole. La divulgazione deve essere chiara e ben visibile, scritta in linguaggio semplice e non deve utilizzare modelli oscuri.
Usi Vietati
TRAIGA vieta specificamente a un ente governativo di utilizzare l’IA per:
- assegnare un punteggio sociale;
- identificare un individuo specifico utilizzando dati biometrici, senza il consenso dell’individuo.
Il termine “dati biometrici” è definito come “dati generati da misurazioni automatiche delle caratteristiche biologiche di un individuo”. Include impronte digitali, impronte vocali, retine oculari o iridi, o altri schemi o caratteristiche biologiche uniche utilizzate per identificare un individuo specifico.
TRAIGA vieta inoltre a una persona di utilizzare l’IA per:
- incitare o incoraggiare l’autolesionismo, il crimine o la violenza;
- infrangere, limitare o compromettere i diritti di un individuo garantiti dalla Costituzione degli Stati Uniti;
- discriminare illegalmente contro una classe protetta in violazione delle leggi statali o federali.
TRAIGA stabilisce anche un programma di sandbox per consentire alle aziende di testare l’IA in un ambiente controllato senza piena conformità normativa e crea il Consiglio dell’Intelligenza Artificiale del Texas per fornire orientamento e rivedere questioni etiche e legali relative all’IA.
Considerazioni sulla Conformità a TRAIGA
- Valutazione dell’applicabilità. Le aziende dovrebbero esaminare tutti i sistemi di IA sviluppati o distribuiti in Texas per determinare se tali IA soddisfano la definizione di “qualsiasi sistema basato su macchine che inferisce dagli input per generare output, che può influenzare ambienti fisici o virtuali”.
- Analisi dei casi d’uso. Le aziende dovrebbero considerare se i loro sistemi di IA: (1) interagiscono con i consumatori, (2) possono violare diritti garantiti dalla Costituzione, (3) influenzano classi protette, o (4) possono essere percepiti come manipolatori del comportamento.
- Revisione dei requisiti di notifica. Le agenzie governative dovrebbero implementare divulgazioni chiare e visibili ogni volta che l’IA interagisce con i consumatori del Texas e garantire che tali divulgazioni siano scritte in linguaggio semplice e non contengano modelli oscuri.
- Allineamento con il framework di rischio. Le aziende e le entità governative potrebbero voler allineare i programmi di IA attuali con framework di rischio riconosciuti a livello nazionale/internazionale.
- Partecipazione al programma sandbox. Le aziende che sviluppano un nuovo prodotto di IA dovrebbero considerare di unirsi al programma sandbox per ottenere protezione legale e accesso limitato al mercato del Texas.
- Moratoria federale sull’IA. Il 22 maggio 2025, la Camera dei rappresentanti ha approvato una proposta per imporre una moratoria di 10 anni sulle leggi statali che regolano l’IA.