Legge Texana sull’Intelligenza Artificiale: Normative e Implicazioni

TRAIGA: Principali disposizioni della nuova legge sulla governance dell’intelligenza artificiale del Texas

Il 31 maggio 2025, il legislatore del Texas ha approvato il House Bill 149, noto come Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Questa legge stabilisce requisiti di divulgazione per i sviluppatori e distributori di intelligenza artificiale (IA) operanti in Texas e delinea usi vietati dell’IA, oltre a stabilire sanzioni civili per le violazioni. Il 2 giugno 2025, il progetto di legge è stato inviato al governatore del Texas per la revisione e firmato in legge il 22 giugno. TRAIGA entrerà in vigore il 1° gennaio 2026, aggiungendosi a un elenco di stati, tra cui California, Colorado e Utah, che hanno approvato legislazioni sull’IA.

A chi si applica TRAIGA? Definizioni chiave

TRAIGA si applica a due gruppi: (1) persone e entità coperte, che includono sviluppatori e distributori, e (2) entità governative.

Persone e Entità Coperte

Le persone e le entità coperte sono definite come qualsiasi persona che (1) promuove, pubblicizza o conduce affari in Texas; (2) produce un prodotto o servizio utilizzato dai residenti del Texas; o (3) sviluppa o distribuisce un sistema di intelligenza artificiale in Texas.

Sviluppatori e Distributori

Un sviluppatore è una persona che sviluppa un sistema di intelligenza artificiale offerto, venduto, affittato, dato o fornito in altro modo in Texas, mentre un distributore è colui che distribuisce un sistema di intelligenza artificiale per l’uso in Texas.

Entità Governative

Un ente governativo è definito come qualsiasi dipartimento, commissione, consiglio, ufficio, autorità o altra unità amministrativa del Texas o di qualsiasi suddivisione politica del Texas che esercita funzioni governative ai sensi delle leggi del Texas. La definizione esclude specificamente i distretti ospedalieri e le istituzioni di istruzione superiore.

Consumatore

Un consumatore è un individuo residente in Texas che agisce solo in un contesto individuale o domestico. Pertanto, gli usi commerciali o lavorativi non sono soggetti a TRAIGA.

Sistema di Intelligenza Artificiale

TRAIGA definisce ampiamente un sistema di intelligenza artificiale come “qualsiasi sistema basato su macchine che, per qualsiasi obiettivo esplicito o implicito, inferisce dagli input ricevuti come generare output, comprese contenuti, decisioni, previsioni o raccomandazioni, che possono influenzare ambienti fisici o virtuali.”

Come sarà applicato TRAIGA?

L’ufficio del procuratore generale del Texas ha l’autorità esclusiva di applicare la legge, con rare eccezioni in cui le agenzie statali di licenza hanno un potere di applicazione limitato. Tuttavia, TRAIGA non prevede un diritto di azione privata.

Notifica e Opportunità di Correzione

Prima che il procuratore generale possa avviare un’azione, deve inviare una notifica scritta di violazione al presunto trasgressore. Il presunto trasgressore ha quindi 60 giorni per:

  • correggere la violazione presunta;
  • fornire documentazione di supporto che dimostri la correzione;
  • aggiornare o rivedere le politiche interne per prevenire ulteriori violazioni.

Pene Civili

TRAIGA stabilisce anche pene civili che includono le seguenti categorie:

  • Violazioni curabili: $10,000 – $12,000 per violazione;
  • Violazioni incurabili: $80,000 – $200,000 per violazione;
  • Violazioni continuative: $2,000 – $40,000 al giorno.

Inoltre, il procuratore generale può richiedere un provvedimento ingiuntivo, spese legali e costi di indagine.

Porti Sicuri

TRAIGA prevede porti sicuri e difese affermative. Una persona non è responsabile ai sensi di TRAIGA se:

  • un terzo party abusa dell’IA in un modo vietato da TRAIGA;
  • la persona scopre una violazione attraverso test o audit di buona fede;
  • la persona rispetta sostanzialmente il Framework di Gestione del Rischio dell’IA del NIST o standard simili riconosciuti.

Come funzionerà TRAIGA?

Le sezioni relative alle divulgazioni ai consumatori e agli usi vietati dell’IA potrebbero avere implicazioni per le aziende.

Divulgazione ai Consumatori

Le agenzie governative sono tenute a divulgare a ciascun consumatore, prima o al momento dell’interazione, che il consumatore sta interagendo con l’IA, anche se tale divulgazione sarebbe ovvia per un consumatore ragionevole. La divulgazione deve essere chiara e ben visibile, scritta in linguaggio semplice e non deve utilizzare modelli oscuri.

Usi Vietati

TRAIGA vieta specificamente a un ente governativo di utilizzare l’IA per:

  • assegnare un punteggio sociale;
  • identificare un individuo specifico utilizzando dati biometrici, senza il consenso dell’individuo.

Il termine “dati biometrici” è definito come “dati generati da misurazioni automatiche delle caratteristiche biologiche di un individuo”. Include impronte digitali, impronte vocali, retine oculari o iridi, o altri schemi o caratteristiche biologiche uniche utilizzate per identificare un individuo specifico.

TRAIGA vieta inoltre a una persona di utilizzare l’IA per:

  • incitare o incoraggiare l’autolesionismo, il crimine o la violenza;
  • infrangere, limitare o compromettere i diritti di un individuo garantiti dalla Costituzione degli Stati Uniti;
  • discriminare illegalmente contro una classe protetta in violazione delle leggi statali o federali.

TRAIGA stabilisce anche un programma di sandbox per consentire alle aziende di testare l’IA in un ambiente controllato senza piena conformità normativa e crea il Consiglio dell’Intelligenza Artificiale del Texas per fornire orientamento e rivedere questioni etiche e legali relative all’IA.

Considerazioni sulla Conformità a TRAIGA

  • Valutazione dell’applicabilità. Le aziende dovrebbero esaminare tutti i sistemi di IA sviluppati o distribuiti in Texas per determinare se tali IA soddisfano la definizione di “qualsiasi sistema basato su macchine che inferisce dagli input per generare output, che può influenzare ambienti fisici o virtuali”.
  • Analisi dei casi d’uso. Le aziende dovrebbero considerare se i loro sistemi di IA: (1) interagiscono con i consumatori, (2) possono violare diritti garantiti dalla Costituzione, (3) influenzano classi protette, o (4) possono essere percepiti come manipolatori del comportamento.
  • Revisione dei requisiti di notifica. Le agenzie governative dovrebbero implementare divulgazioni chiare e visibili ogni volta che l’IA interagisce con i consumatori del Texas e garantire che tali divulgazioni siano scritte in linguaggio semplice e non contengano modelli oscuri.
  • Allineamento con il framework di rischio. Le aziende e le entità governative potrebbero voler allineare i programmi di IA attuali con framework di rischio riconosciuti a livello nazionale/internazionale.
  • Partecipazione al programma sandbox. Le aziende che sviluppano un nuovo prodotto di IA dovrebbero considerare di unirsi al programma sandbox per ottenere protezione legale e accesso limitato al mercato del Texas.
  • Moratoria federale sull’IA. Il 22 maggio 2025, la Camera dei rappresentanti ha approvato una proposta per imporre una moratoria di 10 anni sulle leggi statali che regolano l’IA.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...