Texas e la Nuova Legge sull’Intelligenza Artificiale Responsabile

Il Texas adotta il Responsible AI Governance Act

Il 22 giugno 2025, il governatore Abbott ha firmato l’HB 149, noto come Texas Responsible Artificial Intelligence Governance Act (l’Atto o TRAIGA), rendendo il Texas il terzo stato degli Stati Uniti, dopo il Colorado e l’Utah, ad adottare una legge completa sull’intelligenza artificiale (AI). Sebbene la legge presenti alcune somiglianze con altre normative statali e globali sull’AI, ha anche differenze chiave volte a garantire un equilibrio più favorevole all’innovazione, come un elevato standard di “intento” per dimostrare il pregiudizio algoritmico, diversi rifugi sicuri e la preclusione della regolamentazione locale dell’AI.

Una volta che l’Atto entrerà in vigore il 1 gennaio 2026, il Texas:

  • Stabilirà doveri di base per i “sviluppatori” e i “distributori” di AI,
  • Proibirà AI destinate al social scoring o alla discriminazione,
  • Creerà un regulatory sandbox pionieristico per l’AI,
  • Conferirà l’autorità esclusiva di enforcement al Attorney General (AG), e
  • Prevarrà ampiamente sulle ordinanze locali che regolano l’AI.

La data di entrata in vigore dell’Atto offre alle aziende circa 18 mesi per implementare programmi di conformità. Le organizzazioni che operano a livello nazionale o globale sono incoraggiate ad armonizzare i propri sforzi con i requisiti in rapido avvicinamento del EU AI Act e del Colorado AI Act.

Ambito ampio, definizioni familiari

L’Atto si applica a chiunque “promuova, pubblicizzi o conduca affari” in Texas, offra prodotti o servizi ai residenti del Texas, o “sviluppi o distribuisca” un sistema AI nello stato. Rispecchiando la formulazione del EU AI Act, l’Atto definisce un “sistema di intelligenza artificiale” come “qualsiasi sistema basato su macchina che, per qualsiasi obiettivo esplicito o implicito, inferisce dagli input ricevuti come generare output … che possono influenzare ambienti fisici o virtuali.”

Simile all’EU AI Act e al Colorado AI Act, l’Atto del Texas assegna responsabilità per ruolo:

  • Sviluppatore: Qualsiasi persona che crea un sistema AI offerto, venduto, noleggiato o fornito in Texas.
  • Distributore: Qualsiasi persona che mette in servizio o utilizza un sistema AI nello stato.

Obblighi di base e divieti

1. Trasparenza per i consumatori: Le entità governative devono informare gli individui che stanno interagendo con un sistema AI prima o al momento dell’interazione. L’avviso deve essere chiaro, evidente e in linguaggio semplice; i collegamenti ipertestuali sono espressamente consentiti.

2. Manipolazione del comportamento umano: Sviluppatori e distributori non possono utilizzare intenzionalmente l’AI per incitare all’auto-lesionismo, alla violenza o ad attività criminali.

3. Divieto di “social scoring”: Rispecchiando l’Articolo 5 del EU AI Act, il Texas vieta alle entità governative di utilizzare o distribuire sistemi AI che categorizzano gli individui per assegnare un “punteggio sociale” che potrebbe portare a un trattamento dannoso.

4. Protezione dei dati biometrici: Senza il consenso dell’individuo, un’entità governativa non può utilizzare l’AI per identificare univocamente una persona tramite dati biometrici ottenuti da fonti pubblicamente disponibili.

5. Diritti costituzionali e discriminazione illecita: I sistemi AI non possono essere sviluppati o distribuiti “con l’unico intento” di infrangere o limitare i diritti di un individuo sotto la Costituzione degli Stati Uniti.

6. Contenuti sessualmente espliciti che coinvolgono minori: Non possono essere sviluppati o distribuiti sistemi AI “con l’unico intento di produrre, assistere o aiutare nella produzione, o distribuire” materiale di abuso sessuale infantile generato dall’AI e contenuti “deepfake” sessualmente espliciti che ritraggono minori.

È importante notare che l’Atto stabilisce una soglia elevata per la responsabilità riguardo a due dei divieti chiave sopra menzionati, richiedendo l’intento per stabilire la responsabilità per le violazioni.

Regulatory sandbox per l’AI

L’Atto crea un sandbox di 36 mesi amministrato dal Department of Information Resources (DIR) in consultazione con il nuovo Texas Artificial Intelligence Council. I partecipanti approvati possono testare applicazioni AI innovative senza ottenere le licenze o i permessi statali altrimenti richiesti.

Enforcement e prevaricazione

L’AG del Texas ha l’autorità esclusiva per far rispettare questo Atto. Saranno previsti penalità civili fino a 200.000 USD per violazione non curabile e fino a 40.000 USD al giorno per violazioni continuative.

Prossimi passi

Le aziende possono adottare misure per prepararsi all’applicazione e migliorare la loro strategia di governance dell’AI, tra cui:

  • Prendere inventario e stratificare i casi d’uso dell’AI per livello di rischio,
  • Documentare la cessazione delle pratiche “proibite” sotto l’Atto.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...