Texas e la Nuova Legge sull’IA: Trasparenza e Sicurezza in Arrivo

Texas Introduce una Legge Completa sull’IA: Requisiti di Divulgazione, Consenso e Conformità in Vigore nel 2026

Il 22 giugno 2025, il Governatore del Texas, Greg Abbott, ha firmato la House Bill 149, che ha istituito il Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Questa legge rappresenta uno dei più completi quadri normativi statali sull’intelligenza artificiale (IA) negli Stati Uniti.

Il TRAIGA impone requisiti di divulgazione, consenso e conformità per gli sviluppatori, i distributori e le entità governative che utilizzano sistemi di intelligenza artificiale. La legge entrerà in vigore il 1° gennaio 2026.

Definizione di Sistema di Intelligenza Artificiale

La legge definisce un “sistema di intelligenza artificiale” come qualsiasi sistema basato su macchine che utilizza input per generare contenuti, decisioni, previsioni o raccomandazioni che possono influenzare ambienti fisici o virtuali. L’obiettivo è promuovere lo sviluppo e l’uso responsabile dell’IA, proteggendo al contempo gli individui dai rischi prevedibili attraverso una supervisione strutturata e requisiti di divulgazione.

Disposizioni Chiave del TRAIGA

  • Protezione del Consumatore: La legge vieta l’uso di modelli di IA che discriminano intenzionalmente classi protette, violano diritti costituzionali o incitano a danni. Inoltre, le entità governative non possono utilizzare l’IA per identificare individui tramite dati biometrici senza consenso informato o per assegnare punteggi sociali basati su comportamenti o caratteristiche personali.
  • Linee Guida di Divulgazione: Qualsiasi entità governativa o commerciale che distribuisce un sistema di IA destinato a interagire con i consumatori deve fornire una divulgazione chiara e evidente in linguaggio semplice. La divulgazione deve avvenire prima o al momento dell’interazione, evitando l’uso di design ingannevoli noti come “dark patterns”.
  • Programma di Sandbox Regolatoria per l’IA: Soggetto all’approvazione del Dipartimento delle Risorse Informatiche e delle agenzie competenti, una persona può testare un programma di IA in un ambiente controllato senza dover essere autorizzata secondo le leggi del Texas. Durante questo periodo di test, il procuratore generale non può intentare o perseguire cause contro un partecipante per violazioni avvenute durante questo periodo.
  • Safe Harbors: Le entità che rispettano sostanzialmente quadri di gestione del rischio riconosciuti, come il NIST AI Risk Management Framework, o che rilevano violazioni attraverso audit interni o test avversariali, possono qualificarsi per la protezione contro l’applicazione della legge.
  • Applicazione e Sanzioni Civili: Il Procuratore Generale del Texas detiene l’autorità esclusiva di applicazione. Le sanzioni civili variano da $10.000 a $200.000 per violazione, con penalità quotidiane per la non conformità continuata.

Implementazione Pratica

Con il TRAIGA, il Texas diventa il secondo stato a adottare un quadro normativo completo per l’IA, seguendo il Colorado, che ha emanato la sua legge sull’IA nel 2024. Mentre gli stati continuano a seguire approcci divergenti alla regolamentazione dell’IA, come il recente veto della legge sull’IA da parte del governatore della Virginia, i partecipanti al mercato devono monitorare attentamente l’evoluzione di questo mosaico di normative statali per valutare gli obblighi di conformità e pianificare gli impatti operativi attraverso le giurisdizioni.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...