Nuove Regole per l’Intelligenza Artificiale in Texas

Il Texas approva una nuova legge sull’IA

Il 22 giugno 2025, il governatore del Texas ha firmato il Texas Responsible Artificial Intelligence Governance Act (TRAIGA), rendendo il Texas il secondo stato a promulgare una regolamentazione completa sull’intelligenza artificiale (IA), dopo il Colorado. La legge entrerà in vigore il 1 gennaio 2026, un mese prima della legge sull’IA del Colorado. Le aziende devono quindi valutare il loro utilizzo dell’IA per garantire la conformità prima del 2026.

Obiettivi e limitazioni di TRAIGA

TRAIGA stabilisce una serie di pratiche vietate relative all’IA, tra cui l’uso dell’IA per manipolare il comportamento umano, assegnare punteggi sociali, discriminare illegalmente, violare i diritti costituzionali e catturare dati biometrici senza consenso. La legge include anche un programma di regulatory sandbox per promuovere l’innovazione e le implementazioni responsabili dell’IA.

Consiglio sull’Intelligenza Artificiale del Texas

La legge istituisce il Texas Artificial Intelligence Council, un gruppo di esperti che fornirà consulenze sulle implicazioni etiche, di privacy e di sicurezza pubblica relative allo sviluppo e all’uso dei sistemi IA.

Principali disposizioni di TRAIGA

TRAIGA specifica che si applica a chiunque:

  • promuova, pubblicizzi o conduca affari in Texas;
  • produca un prodotto o servizio utilizzato dai residenti del Texas;
  • sviluppi o implementi un sistema di intelligenza artificiale in Texas.

Definizioni importanti

TRAIGA definisce “sistema di intelligenza artificiale” come qualsiasi sistema basato su macchine che, per un obiettivo esplicito o implicito, inferisce dagli input ricevuti come generare output che possono influenzare ambienti fisici o virtuali. La legge definisce anche “consumatore” come un individuo residente in Texas che agisce solo in un contesto individuale o familiare.

Attività vietate

TRAIGA vieta diverse attività, tra cui:

  • Manipolazione del comportamento umano: È vietato sviluppare o implementare un sistema di IA che intenda “incitare o incoraggiare” qualcuno a commettere autolesionismo, danneggiare altre persone o impegnarsi in attività criminali.
  • Punteggio sociale: È vietato per un’entità governativa utilizzare o implementare un sistema di IA che classifichi un individuo o un gruppo in base al comportamento sociale.
  • Cattura di dati biometrici: È vietato sviluppare o implementare un sistema di IA che utilizzi dati biometrici senza consenso.
  • Discriminazione illegale: È vietato sviluppare o implementare un sistema di IA con l’intento di discriminare illegalmente.

Divulgazione ai consumatori

TRAIGA richiede alle agenzie governative e ai servizi sanitari di divulgare quando i consumatori interagiscono con un sistema di IA, sia prima che nel momento dell’interazione. Questa divulgazione deve essere chiara e redatta in linguaggio semplice.

Regulatory Sandbox

TRAIGA crea un programma di regulatory sandbox per consentire alle aziende di testare sistemi di IA innovativi senza ottenere una licenza o un’autorizzazione normativa. Questo programma mira a promuovere l’uso sicuro e responsabile dei sistemi di IA.

Modifiche alla legge sulla privacy biometrica del Texas

TRAIGA include modifiche alla legge sulla privacy biometrica del Texas, chiarendo il significato del consenso in relazione ai identificatori biometrici e introducendo nuove eccezioni per l’uso di dati biometrici nel contesto dell’IA.

Applicazione e sanzioni

Il procuratore generale del Texas ha l’autorità esclusiva di avviare azioni contro le violazioni della legge e di ottenere sanzioni civili. Le aziende hanno un periodo di 60 giorni per correggere eventuali violazioni e le sanzioni civili possono arrivare fino a 200.000 dollari per violazioni non curabili.

Con l’approvazione di TRAIGA, il Texas si pone all’avanguardia nella regolamentazione dell’intelligenza artificiale, creando un quadro normativo volto a garantire l’uso responsabile e etico di queste tecnologie emergenti.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...