Nuove regolamentazioni sull’IA con il Texas Responsible Artificial Intelligence Governance Act
Il rapido avanzamento dell’intelligenza artificiale (IA) ha superato i quadri normativi esistenti negli Stati Uniti. Attualmente, la regolamentazione dell’IA avviene principalmente su base statale. La maggior parte degli stati che hanno promulgato leggi sull’IA si basa su regolamentazioni mirate per casi d’uso o settori specifici. Il Texas ha stabilito un approccio più completo con il suo Texas Responsible Artificial Intelligence Governance Act (TRAIGA).
Dettagli del TRAIGA
Il TRAIGA è stato promulgato il 22 giugno 2025 ed è entrato in vigore il 1° gennaio 2026, con implicazioni che vanno oltre i confini del Texas. Questa legge si occupa dello sviluppo e del dispiegamento di sistemi di IA e proibisce:
- Sviluppare o dispiegare un sistema di IA con l’intento di manipolare il comportamento umano per incitare o incoraggiare l’autolesionismo, il danno ad altri o attività criminali.
- Sviluppare o dispiegare un sistema di IA con l’unico intento di infrangere, limitare o compromettere i diritti garantiti dalla Costituzione.
- Sviluppare o dispiegare un sistema di IA con l’intento di discriminare illegalmente una classe protetta in violazione delle leggi statali o federali.
- Sviluppare o dispiegare un sistema di IA con l’unico intento di produrre o distribuire contenuti sessualmente espliciti.
Il Codice del Commercio e degli Affari del Texas definisce i sistemi di IA come “qualsiasi sistema basato su macchine che, per qualsiasi obiettivo esplicito o implicito, inferisce dagli input ricevuti come generare output, inclusi contenuti, decisioni, previsioni o raccomandazioni, che possono influenzare ambienti fisici o virtuali.” TRAIGA si applica a chiunque faccia affari in Texas o con i texani, ampliando così il suo raggio d’azione oltre il Texas.
Confronto con altre leggi statali
Il TRAIGA si differenzia dalle leggi di altri stati come il Colorado, che ha adottato un approccio basato sul rischio attraverso il Colorado AI Act (CAIA). Questo richiede ai sviluppatori e ai dispiegatori di condurre valutazioni d’impatto e gestire i rischi. Al contrario, il TRAIGA offre un quadro più chiaro e facilmente operativizzabile. Utah ha promulgato l’Utah AI Policy Act, che si concentra principalmente sulla notifica ai consumatori e sulle pratiche ingannevoli, risultando in un ambito di applicazione più limitato rispetto al TRAIGA.
Passi pratici per le aziende
Qualsiasi entità che opera in Texas o con residenti texani dovrebbe valutare attentamente la propria esposizione al rischio e rivedere le proprie politiche aziendali. In generale, le organizzazioni sono consigliate di considerare i seguenti punti:
- Cartografare l’esposizione al Texas: identificare i sistemi di IA sviluppati, offerti o dispiegati in Texas.
- Aggiornare le politiche sull’IA per vietare espressamente usi che potrebbero manipolare l’autolesionismo, la violenza, la criminalità, discriminare intenzionalmente, violare diritti o produrre contenuti sessuali per bambini.
- Valutare il sandbox del Texas: considerare se sia opportuno testare le caratteristiche di IA di nuova generazione all’interno del sandbox per mitigare il rischio normativo.
Conclusione
Il Texas Responsible Artificial Intelligence Governance Act rappresenta un passo importante verso una regolamentazione più chiara e mirata dell’IA, andando a influenzare sia lo sviluppo che l’uso dei sistemi di IA. Le aziende devono essere pronte ad adattarsi a queste nuove normative per garantire la conformità e proteggere i propri interessi.