Legge Texana sull’Intelligenza Artificiale: Normative e Implicazioni

TRAIGA: Principali disposizioni della nuova legge sulla governance dell’intelligenza artificiale del Texas

Il 31 maggio 2025, il legislatore del Texas ha approvato il House Bill 149, noto come Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Questa legge stabilisce requisiti di divulgazione per i sviluppatori e distributori di intelligenza artificiale (IA) operanti in Texas e delinea usi vietati dell’IA, oltre a stabilire sanzioni civili per le violazioni. Il 2 giugno 2025, il progetto di legge è stato inviato al governatore del Texas per la revisione e firmato in legge il 22 giugno. TRAIGA entrerà in vigore il 1° gennaio 2026, aggiungendosi a un elenco di stati, tra cui California, Colorado e Utah, che hanno approvato legislazioni sull’IA.

A chi si applica TRAIGA? Definizioni chiave

TRAIGA si applica a due gruppi: (1) persone e entità coperte, che includono sviluppatori e distributori, e (2) entità governative.

Persone e Entità Coperte

Le persone e le entità coperte sono definite come qualsiasi persona che (1) promuove, pubblicizza o conduce affari in Texas; (2) produce un prodotto o servizio utilizzato dai residenti del Texas; o (3) sviluppa o distribuisce un sistema di intelligenza artificiale in Texas.

Sviluppatori e Distributori

Un sviluppatore è una persona che sviluppa un sistema di intelligenza artificiale offerto, venduto, affittato, dato o fornito in altro modo in Texas, mentre un distributore è colui che distribuisce un sistema di intelligenza artificiale per l’uso in Texas.

Entità Governative

Un ente governativo è definito come qualsiasi dipartimento, commissione, consiglio, ufficio, autorità o altra unità amministrativa del Texas o di qualsiasi suddivisione politica del Texas che esercita funzioni governative ai sensi delle leggi del Texas. La definizione esclude specificamente i distretti ospedalieri e le istituzioni di istruzione superiore.

Consumatore

Un consumatore è un individuo residente in Texas che agisce solo in un contesto individuale o domestico. Pertanto, gli usi commerciali o lavorativi non sono soggetti a TRAIGA.

Sistema di Intelligenza Artificiale

TRAIGA definisce ampiamente un sistema di intelligenza artificiale come “qualsiasi sistema basato su macchine che, per qualsiasi obiettivo esplicito o implicito, inferisce dagli input ricevuti come generare output, comprese contenuti, decisioni, previsioni o raccomandazioni, che possono influenzare ambienti fisici o virtuali.”

Come sarà applicato TRAIGA?

L’ufficio del procuratore generale del Texas ha l’autorità esclusiva di applicare la legge, con rare eccezioni in cui le agenzie statali di licenza hanno un potere di applicazione limitato. Tuttavia, TRAIGA non prevede un diritto di azione privata.

Notifica e Opportunità di Correzione

Prima che il procuratore generale possa avviare un’azione, deve inviare una notifica scritta di violazione al presunto trasgressore. Il presunto trasgressore ha quindi 60 giorni per:

  • correggere la violazione presunta;
  • fornire documentazione di supporto che dimostri la correzione;
  • aggiornare o rivedere le politiche interne per prevenire ulteriori violazioni.

Pene Civili

TRAIGA stabilisce anche pene civili che includono le seguenti categorie:

  • Violazioni curabili: $10,000 – $12,000 per violazione;
  • Violazioni incurabili: $80,000 – $200,000 per violazione;
  • Violazioni continuative: $2,000 – $40,000 al giorno.

Inoltre, il procuratore generale può richiedere un provvedimento ingiuntivo, spese legali e costi di indagine.

Porti Sicuri

TRAIGA prevede porti sicuri e difese affermative. Una persona non è responsabile ai sensi di TRAIGA se:

  • un terzo party abusa dell’IA in un modo vietato da TRAIGA;
  • la persona scopre una violazione attraverso test o audit di buona fede;
  • la persona rispetta sostanzialmente il Framework di Gestione del Rischio dell’IA del NIST o standard simili riconosciuti.

Come funzionerà TRAIGA?

Le sezioni relative alle divulgazioni ai consumatori e agli usi vietati dell’IA potrebbero avere implicazioni per le aziende.

Divulgazione ai Consumatori

Le agenzie governative sono tenute a divulgare a ciascun consumatore, prima o al momento dell’interazione, che il consumatore sta interagendo con l’IA, anche se tale divulgazione sarebbe ovvia per un consumatore ragionevole. La divulgazione deve essere chiara e ben visibile, scritta in linguaggio semplice e non deve utilizzare modelli oscuri.

Usi Vietati

TRAIGA vieta specificamente a un ente governativo di utilizzare l’IA per:

  • assegnare un punteggio sociale;
  • identificare un individuo specifico utilizzando dati biometrici, senza il consenso dell’individuo.

Il termine “dati biometrici” è definito come “dati generati da misurazioni automatiche delle caratteristiche biologiche di un individuo”. Include impronte digitali, impronte vocali, retine oculari o iridi, o altri schemi o caratteristiche biologiche uniche utilizzate per identificare un individuo specifico.

TRAIGA vieta inoltre a una persona di utilizzare l’IA per:

  • incitare o incoraggiare l’autolesionismo, il crimine o la violenza;
  • infrangere, limitare o compromettere i diritti di un individuo garantiti dalla Costituzione degli Stati Uniti;
  • discriminare illegalmente contro una classe protetta in violazione delle leggi statali o federali.

TRAIGA stabilisce anche un programma di sandbox per consentire alle aziende di testare l’IA in un ambiente controllato senza piena conformità normativa e crea il Consiglio dell’Intelligenza Artificiale del Texas per fornire orientamento e rivedere questioni etiche e legali relative all’IA.

Considerazioni sulla Conformità a TRAIGA

  • Valutazione dell’applicabilità. Le aziende dovrebbero esaminare tutti i sistemi di IA sviluppati o distribuiti in Texas per determinare se tali IA soddisfano la definizione di “qualsiasi sistema basato su macchine che inferisce dagli input per generare output, che può influenzare ambienti fisici o virtuali”.
  • Analisi dei casi d’uso. Le aziende dovrebbero considerare se i loro sistemi di IA: (1) interagiscono con i consumatori, (2) possono violare diritti garantiti dalla Costituzione, (3) influenzano classi protette, o (4) possono essere percepiti come manipolatori del comportamento.
  • Revisione dei requisiti di notifica. Le agenzie governative dovrebbero implementare divulgazioni chiare e visibili ogni volta che l’IA interagisce con i consumatori del Texas e garantire che tali divulgazioni siano scritte in linguaggio semplice e non contengano modelli oscuri.
  • Allineamento con il framework di rischio. Le aziende e le entità governative potrebbero voler allineare i programmi di IA attuali con framework di rischio riconosciuti a livello nazionale/internazionale.
  • Partecipazione al programma sandbox. Le aziende che sviluppano un nuovo prodotto di IA dovrebbero considerare di unirsi al programma sandbox per ottenere protezione legale e accesso limitato al mercato del Texas.
  • Moratoria federale sull’IA. Il 22 maggio 2025, la Camera dei rappresentanti ha approvato una proposta per imporre una moratoria di 10 anni sulle leggi statali che regolano l’IA.

More Insights

Obblighi Critici dell’Atto sull’Intelligenza Artificiale nell’UE

Le nuove obbligazioni derivanti dalla Legge sull'Intelligenza Artificiale dell'UE sui modelli di intelligenza artificiale di uso generale entreranno in vigore ad agosto. Gli operatori del settore...

Regolamentazione dell’IA: Un Dilemma tra Innovazione e Sicurezza

Il capo scienziato di Microsoft critica la proposta di Donald Trump di vietare la regolamentazione dell'intelligenza artificiale a livello statale, avvertendo che tali restrizioni potrebbero...

Pressione statunitense e regolamentazione dell’IA: un bivio europeo

Scarsamente sei mesi dopo l'entrata in vigore della prima legislazione completa sull'IA, i leader mondiali si sono riuniti a Parigi per il AI Action Summit. Tuttavia, la pressione degli Stati Uniti ha...

Regolamentazione complessa degli strumenti AI nella salute

Un nuovo rapporto del Bipartisan Policy Center esamina il complesso panorama normativo per gli strumenti AI nella salute che operano al di fuori della giurisdizione della FDA. Il rapporto evidenzia le...

Legge Texana sull’Intelligenza Artificiale: Normative e Implicazioni

Il 31 maggio 2025, il legislatore del Texas ha approvato il "Texas Responsible Artificial Intelligence Governance Act" (TRAIGA), che stabilisce requisiti di divulgazione per gli sviluppatori e i...

Texas e la Nuova Legge sulla Governance Responsabile dell’IA

Il 22 giugno 2025, il governatore del Texas, Greg Abbott, ha firmato la Texas Responsible AI Governance Act (TRAIGA), segnando la conclusione di un progetto di legge che ha ricevuto attenzione...

Opportunità mancate per l’AI: il G7 e la governance globale

I leader del G7 si sono riuniti in Alberta, Canada, ma la questione della governance dell'intelligenza artificiale è stata praticamente assente dai dibattiti. Questa omissione è particolarmente...

Intelligenza Artificiale: L’Africa Riscopre la Sovranità

I leader africani hanno chiesto azioni urgenti per costruire sistemi di intelligenza artificiale sovrani ed etici, adattati alle esigenze locali. È fondamentale garantire che l'IA supporti la...

Regolamenti AI: Le Sfide di Compliance e Innovazione

Con lo sviluppo dell'IA in tutto il mondo, diventa sempre più difficile applicare regolamenti efficaci. Le aziende tecnologiche multinazionali devono affrontare sfide complesse a causa della diversità...