Texas e la Nuova Legge sull’IA: Trasparenza e Sicurezza in Arrivo

Texas Introduce una Legge Completa sull’IA: Requisiti di Divulgazione, Consenso e Conformità in Vigore nel 2026

Il 22 giugno 2025, il Governatore del Texas, Greg Abbott, ha firmato la House Bill 149, che ha istituito il Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Questa legge rappresenta uno dei più completi quadri normativi statali sull’intelligenza artificiale (IA) negli Stati Uniti.

Il TRAIGA impone requisiti di divulgazione, consenso e conformità per gli sviluppatori, i distributori e le entità governative che utilizzano sistemi di intelligenza artificiale. La legge entrerà in vigore il 1° gennaio 2026.

Definizione di Sistema di Intelligenza Artificiale

La legge definisce un “sistema di intelligenza artificiale” come qualsiasi sistema basato su macchine che utilizza input per generare contenuti, decisioni, previsioni o raccomandazioni che possono influenzare ambienti fisici o virtuali. L’obiettivo è promuovere lo sviluppo e l’uso responsabile dell’IA, proteggendo al contempo gli individui dai rischi prevedibili attraverso una supervisione strutturata e requisiti di divulgazione.

Disposizioni Chiave del TRAIGA

  • Protezione del Consumatore: La legge vieta l’uso di modelli di IA che discriminano intenzionalmente classi protette, violano diritti costituzionali o incitano a danni. Inoltre, le entità governative non possono utilizzare l’IA per identificare individui tramite dati biometrici senza consenso informato o per assegnare punteggi sociali basati su comportamenti o caratteristiche personali.
  • Linee Guida di Divulgazione: Qualsiasi entità governativa o commerciale che distribuisce un sistema di IA destinato a interagire con i consumatori deve fornire una divulgazione chiara e evidente in linguaggio semplice. La divulgazione deve avvenire prima o al momento dell’interazione, evitando l’uso di design ingannevoli noti come “dark patterns”.
  • Programma di Sandbox Regolatoria per l’IA: Soggetto all’approvazione del Dipartimento delle Risorse Informatiche e delle agenzie competenti, una persona può testare un programma di IA in un ambiente controllato senza dover essere autorizzata secondo le leggi del Texas. Durante questo periodo di test, il procuratore generale non può intentare o perseguire cause contro un partecipante per violazioni avvenute durante questo periodo.
  • Safe Harbors: Le entità che rispettano sostanzialmente quadri di gestione del rischio riconosciuti, come il NIST AI Risk Management Framework, o che rilevano violazioni attraverso audit interni o test avversariali, possono qualificarsi per la protezione contro l’applicazione della legge.
  • Applicazione e Sanzioni Civili: Il Procuratore Generale del Texas detiene l’autorità esclusiva di applicazione. Le sanzioni civili variano da $10.000 a $200.000 per violazione, con penalità quotidiane per la non conformità continuata.

Implementazione Pratica

Con il TRAIGA, il Texas diventa il secondo stato a adottare un quadro normativo completo per l’IA, seguendo il Colorado, che ha emanato la sua legge sull’IA nel 2024. Mentre gli stati continuano a seguire approcci divergenti alla regolamentazione dell’IA, come il recente veto della legge sull’IA da parte del governatore della Virginia, i partecipanti al mercato devono monitorare attentamente l’evoluzione di questo mosaico di normative statali per valutare gli obblighi di conformità e pianificare gli impatti operativi attraverso le giurisdizioni.

More Insights

Ritardi e Regole: Il Futuro dell’Intelligenza Artificiale in Europa

Un codice di pratiche progettato per aiutare le aziende a conformarsi alle normative sull'intelligenza artificiale dell'Unione Europea potrebbe essere emesso solo alla fine del 2025. La Commissione ha...

Texas e la Nuova Legge sull’IA: Trasparenza e Sicurezza in Arrivo

Il 22 giugno 2025, il governatore del Texas, Greg Abbott, ha firmato la legge House Bill 149, che istituisce il Texas Responsible Artificial Intelligence Governance Act (TRAIGA). La legge impone...

Rinominare l’Istituto di Sicurezza dell’AI: una questione di priorità

La recente decisione del Segretario del Commercio degli Stati Uniti, Howard Lutnick, di rinominare l'Istituto di Sicurezza AI degli Stati Uniti in Centro per gli Standard e l'Innovazione AI...

AI Responsabile: Innovazione e Fiducia nel Futuro

NetApp sostiene l'AI responsabile sia internamente che esternamente, integrando principi etici e strutture di governance nei suoi quadri di governance dell'AI. Questo approccio non solo riduce i...

Dati Fidati per l’AI: La Chiave della Trasformazione nel Settore Telecomunicazioni

L'intelligenza artificiale (AI) non è più un concetto futuristico nel settore delle telecomunicazioni, ma è la forza trainante dietro la trasformazione dell'industria. Tuttavia, questa rivoluzione...

Marocco: Pioniere nella Governance Globale dell’IA

Il Marocco ha preso un'iniziativa precoce nel promuovere la governance globale dell'intelligenza artificiale, collaborando con gli Stati Uniti e aderendo all'iniziativa cinese. L'ambasciatore Omar...

La battaglia per la regolamentazione dell’IA

La battaglia su chi deve regolare l'IA è tutt'altro che finita. Nonostante il passaggio del One Big Beautiful Bill Act al Senato, l'emendamento controverso che imponeva un divieto di regolamentazione...

Pronti per l’AI: Valutare l’Adattamento nel Settore Farmaceutico

L'intelligenza artificiale è destinata a trasformare ogni angolo dell'industria farmaceutica, dalla scoperta delle molecole alle sperimentazioni cliniche. È fondamentale che le organizzazioni...

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...