Legge Texana sull’Intelligenza Artificiale: Normative e Implicazioni

TRAIGA: Principali disposizioni della nuova legge sulla governance dell’intelligenza artificiale del Texas

Il 31 maggio 2025, il legislatore del Texas ha approvato il House Bill 149, noto come Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Questa legge stabilisce requisiti di divulgazione per i sviluppatori e distributori di intelligenza artificiale (IA) operanti in Texas e delinea usi vietati dell’IA, oltre a stabilire sanzioni civili per le violazioni. Il 2 giugno 2025, il progetto di legge è stato inviato al governatore del Texas per la revisione e firmato in legge il 22 giugno. TRAIGA entrerà in vigore il 1° gennaio 2026, aggiungendosi a un elenco di stati, tra cui California, Colorado e Utah, che hanno approvato legislazioni sull’IA.

A chi si applica TRAIGA? Definizioni chiave

TRAIGA si applica a due gruppi: (1) persone e entità coperte, che includono sviluppatori e distributori, e (2) entità governative.

Persone e Entità Coperte

Le persone e le entità coperte sono definite come qualsiasi persona che (1) promuove, pubblicizza o conduce affari in Texas; (2) produce un prodotto o servizio utilizzato dai residenti del Texas; o (3) sviluppa o distribuisce un sistema di intelligenza artificiale in Texas.

Sviluppatori e Distributori

Un sviluppatore è una persona che sviluppa un sistema di intelligenza artificiale offerto, venduto, affittato, dato o fornito in altro modo in Texas, mentre un distributore è colui che distribuisce un sistema di intelligenza artificiale per l’uso in Texas.

Entità Governative

Un ente governativo è definito come qualsiasi dipartimento, commissione, consiglio, ufficio, autorità o altra unità amministrativa del Texas o di qualsiasi suddivisione politica del Texas che esercita funzioni governative ai sensi delle leggi del Texas. La definizione esclude specificamente i distretti ospedalieri e le istituzioni di istruzione superiore.

Consumatore

Un consumatore è un individuo residente in Texas che agisce solo in un contesto individuale o domestico. Pertanto, gli usi commerciali o lavorativi non sono soggetti a TRAIGA.

Sistema di Intelligenza Artificiale

TRAIGA definisce ampiamente un sistema di intelligenza artificiale come “qualsiasi sistema basato su macchine che, per qualsiasi obiettivo esplicito o implicito, inferisce dagli input ricevuti come generare output, comprese contenuti, decisioni, previsioni o raccomandazioni, che possono influenzare ambienti fisici o virtuali.”

Come sarà applicato TRAIGA?

L’ufficio del procuratore generale del Texas ha l’autorità esclusiva di applicare la legge, con rare eccezioni in cui le agenzie statali di licenza hanno un potere di applicazione limitato. Tuttavia, TRAIGA non prevede un diritto di azione privata.

Notifica e Opportunità di Correzione

Prima che il procuratore generale possa avviare un’azione, deve inviare una notifica scritta di violazione al presunto trasgressore. Il presunto trasgressore ha quindi 60 giorni per:

  • correggere la violazione presunta;
  • fornire documentazione di supporto che dimostri la correzione;
  • aggiornare o rivedere le politiche interne per prevenire ulteriori violazioni.

Pene Civili

TRAIGA stabilisce anche pene civili che includono le seguenti categorie:

  • Violazioni curabili: $10,000 – $12,000 per violazione;
  • Violazioni incurabili: $80,000 – $200,000 per violazione;
  • Violazioni continuative: $2,000 – $40,000 al giorno.

Inoltre, il procuratore generale può richiedere un provvedimento ingiuntivo, spese legali e costi di indagine.

Porti Sicuri

TRAIGA prevede porti sicuri e difese affermative. Una persona non è responsabile ai sensi di TRAIGA se:

  • un terzo party abusa dell’IA in un modo vietato da TRAIGA;
  • la persona scopre una violazione attraverso test o audit di buona fede;
  • la persona rispetta sostanzialmente il Framework di Gestione del Rischio dell’IA del NIST o standard simili riconosciuti.

Come funzionerà TRAIGA?

Le sezioni relative alle divulgazioni ai consumatori e agli usi vietati dell’IA potrebbero avere implicazioni per le aziende.

Divulgazione ai Consumatori

Le agenzie governative sono tenute a divulgare a ciascun consumatore, prima o al momento dell’interazione, che il consumatore sta interagendo con l’IA, anche se tale divulgazione sarebbe ovvia per un consumatore ragionevole. La divulgazione deve essere chiara e ben visibile, scritta in linguaggio semplice e non deve utilizzare modelli oscuri.

Usi Vietati

TRAIGA vieta specificamente a un ente governativo di utilizzare l’IA per:

  • assegnare un punteggio sociale;
  • identificare un individuo specifico utilizzando dati biometrici, senza il consenso dell’individuo.

Il termine “dati biometrici” è definito come “dati generati da misurazioni automatiche delle caratteristiche biologiche di un individuo”. Include impronte digitali, impronte vocali, retine oculari o iridi, o altri schemi o caratteristiche biologiche uniche utilizzate per identificare un individuo specifico.

TRAIGA vieta inoltre a una persona di utilizzare l’IA per:

  • incitare o incoraggiare l’autolesionismo, il crimine o la violenza;
  • infrangere, limitare o compromettere i diritti di un individuo garantiti dalla Costituzione degli Stati Uniti;
  • discriminare illegalmente contro una classe protetta in violazione delle leggi statali o federali.

TRAIGA stabilisce anche un programma di sandbox per consentire alle aziende di testare l’IA in un ambiente controllato senza piena conformità normativa e crea il Consiglio dell’Intelligenza Artificiale del Texas per fornire orientamento e rivedere questioni etiche e legali relative all’IA.

Considerazioni sulla Conformità a TRAIGA

  • Valutazione dell’applicabilità. Le aziende dovrebbero esaminare tutti i sistemi di IA sviluppati o distribuiti in Texas per determinare se tali IA soddisfano la definizione di “qualsiasi sistema basato su macchine che inferisce dagli input per generare output, che può influenzare ambienti fisici o virtuali”.
  • Analisi dei casi d’uso. Le aziende dovrebbero considerare se i loro sistemi di IA: (1) interagiscono con i consumatori, (2) possono violare diritti garantiti dalla Costituzione, (3) influenzano classi protette, o (4) possono essere percepiti come manipolatori del comportamento.
  • Revisione dei requisiti di notifica. Le agenzie governative dovrebbero implementare divulgazioni chiare e visibili ogni volta che l’IA interagisce con i consumatori del Texas e garantire che tali divulgazioni siano scritte in linguaggio semplice e non contengano modelli oscuri.
  • Allineamento con il framework di rischio. Le aziende e le entità governative potrebbero voler allineare i programmi di IA attuali con framework di rischio riconosciuti a livello nazionale/internazionale.
  • Partecipazione al programma sandbox. Le aziende che sviluppano un nuovo prodotto di IA dovrebbero considerare di unirsi al programma sandbox per ottenere protezione legale e accesso limitato al mercato del Texas.
  • Moratoria federale sull’IA. Il 22 maggio 2025, la Camera dei rappresentanti ha approvato una proposta per imporre una moratoria di 10 anni sulle leggi statali che regolano l’IA.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...