Legge Texana per la Governance dell’Intelligenza Artificiale

Legge sulla Governance dell’AI in Texas Firmata dal Governatore

Il 22 giugno 2025, il Governatore del Texas, Greg Abbott, ha firmato la Texas Responsible AI Governance Act (TRAIGA) in legge. Nonostante il dibattito in corso nel Senato degli Stati Uniti riguardo a una disposizione nel disegno di legge di riconciliazione che dichiara un moratorium sulla capacità degli stati di legiferare sull’intelligenza artificiale (AI), la firma del HB 149 è una dichiarazione che gli stati continueranno a legiferare in materia di protezione dei consumatori e utilizzo dell’AI, a meno che non venga precluso da un disegno di legge di riconciliazione approvato definitivamente. Questo disegno di legge è attualmente in attesa nel Senato.

Secondo l’ufficio di Abbott: “Con l’emanazione della Texas Responsible AI Governance Act, il Governatore Abbott sta dimostrando una leadership in stile Texas nella governance dell’intelligenza artificiale. In un momento in cui altri affermano che l’AI è una tecnologia eccezionale che non dovrebbe avere guardrail, il Texas dimostra che è fondamentale garantire sia l’innovazione che la sicurezza dei cittadini. Il sostegno del Governatore Abbott evidenzia anche l’importanza degli stati come laboratori nazionali bipartisan per sviluppare in modo agile la politica sull’AI.”

Obiettivi di TRAIGA

Il disegno di legge mira a:

  • Facilitare e promuovere lo sviluppo e l’uso responsabile dei sistemi di intelligenza artificiale;
  • Proteggere individui e gruppi da rischi noti e ragionevolmente prevedibili associati ai sistemi di intelligenza artificiale;
  • Fornire trasparenza riguardo ai rischi nello sviluppo, implementazione e utilizzo dei sistemi di intelligenza artificiale;
  • Fornire un preavviso ragionevole riguardo all’uso o all’uso previsto di sistemi di intelligenza artificiale da parte delle agenzie statali.

Applicazione di TRAIGA

La TRAIGA si applica a sviluppatori e utilizzatori di sistemi di intelligenza artificiale, comprese le entità governative. Un sviluppatore e utilizzatore di AI è ampiamente definito come colui che “sviluppa o utilizza un sistema di intelligenza artificiale in Texas.” Il disegno di legge richiede alle entità governative di fornire un avviso chiaro e evidente ai consumatori, prima o al momento dell’interazione, che il consumatore sta interagendo con l’AI, il che può essere fatto attraverso un hyperlink.

Inoltre, vieta alle entità governative di utilizzare l’AI per assegnare un punteggio sociale, inclusa la valutazione di individui basata su caratteristiche personali di comportamento sociale, o identificare un consumatore utilizzando dati biometrici senza il consenso dell’individuo.

Divieti Specifici

La TRAIGA proibisce ulteriormente a chiunque di sviluppare o utilizzare un sistema di intelligenza artificiale che “mira intenzionalmente a incitare o incoraggiare una persona a:

  • commettere autolesionismo fisico, incluso il suicidio;
  • nuocere a un’altra persona;
  • impegnarsi in attività criminali.”

Inoltre, vieta lo sviluppo o l’uso di un sistema di AI con l’“unico intento” di “violare, limitare o altrimenti compromettere i diritti di un individuo garantiti dalla Costituzione degli Stati Uniti,” o “discriminare illegalmente una classe protetta,” o “produrre, assistere o agevolare la produzione o distribuzione” di contenuti sessualmente espliciti e pornografia infantile, inclusi i deep fake.

Applicazione e Sanzioni

Il Attorney General del Texas ha giurisdizione esclusiva sull’applicazione della TRAIGA e può comminare sanzioni civili dopo la determinazione da parte del tribunale, a seconda dell’intento e della mancata cura delle violazioni, in importi compresi tra $10,000 e $200,000, con una violazione continuata soggetta a sanzioni di non meno di $2,000 e non più di $40,000 “per ogni giorno in cui la violazione continua.”

La legge entra in vigore il 1 gennaio 2026, quindi è ora il momento di determinare se si applica a te e quali misure adottare per conformarsi.

More Insights

Opportunità mancate per l’AI: il G7 e la governance globale

I leader del G7 si sono riuniti in Alberta, Canada, ma la questione della governance dell'intelligenza artificiale è stata praticamente assente dai dibattiti. Questa omissione è particolarmente...

Intelligenza Artificiale: L’Africa Riscopre la Sovranità

I leader africani hanno chiesto azioni urgenti per costruire sistemi di intelligenza artificiale sovrani ed etici, adattati alle esigenze locali. È fondamentale garantire che l'IA supporti la...

Regolamenti AI: Le Sfide di Compliance e Innovazione

Con lo sviluppo dell'IA in tutto il mondo, diventa sempre più difficile applicare regolamenti efficaci. Le aziende tecnologiche multinazionali devono affrontare sfide complesse a causa della diversità...

Il Futuro dell’Intelligenza Artificiale in Cina: Un Percorso Unico

La competizione tra Stati Uniti e Cina nell'intelligenza artificiale è considerata la rivalità tecnologica definitoria del nostro tempo. Cina e Stati Uniti potrebbero sviluppare "varietà" diverse di...

AI e Finanza: Sfide e Opportunità di Compliance

Un nuovo sondaggio di Smarsh ha rivelato che, mentre gli strumenti di intelligenza artificiale vengono rapidamente adottati nei servizi finanziari del Regno Unito, molti dipendenti rimangono...

Etica dell’IA: le nuove sfide nella rivalità USA-Cina

Con l'approfondirsi della rivalità tecnologica tra Stati Uniti e Cina, un'agenzia delle Nazioni Unite sta spingendo per standard globali sull'etica dell'IA. UNESCO ha tenuto il suo terzo Forum Globale...

Sicurezza e AI: Adattarsi al Regolamento UE

Il DSPM gioca un ruolo fondamentale nell'aiutare le organizzazioni a conformarsi ai requisiti rigorosi del Regolamento sull'IA dell'UE, garantendo una distribuzione sicura dell'IA e la sicurezza dei...

Legge contro l’IA avversaria: la nuova frontiera della sicurezza nazionale

Un gruppo bipartisan di legislatori statunitensi ha introdotto il "No Adversarial AI Act", che mira a vietare l'uso di strumenti di intelligenza artificiale sviluppati in nazioni avversarie come Cina...

Personalizza l’IA responsabile con i nuovi livelli di sicurezza in Amazon Bedrock Guardrails

Amazon Bedrock Guardrails fornisce salvaguardie configurabili per costruire applicazioni di intelligenza artificiale generativa affidabili su larga scala. Con i nuovi livelli di salvaguardia, le...