Legge Texana per la Governance dell’Intelligenza Artificiale

Legge sulla Governance dell’AI in Texas Firmata dal Governatore

Il 22 giugno 2025, il Governatore del Texas, Greg Abbott, ha firmato la Texas Responsible AI Governance Act (TRAIGA) in legge. Nonostante il dibattito in corso nel Senato degli Stati Uniti riguardo a una disposizione nel disegno di legge di riconciliazione che dichiara un moratorium sulla capacità degli stati di legiferare sull’intelligenza artificiale (AI), la firma del HB 149 è una dichiarazione che gli stati continueranno a legiferare in materia di protezione dei consumatori e utilizzo dell’AI, a meno che non venga precluso da un disegno di legge di riconciliazione approvato definitivamente. Questo disegno di legge è attualmente in attesa nel Senato.

Secondo l’ufficio di Abbott: “Con l’emanazione della Texas Responsible AI Governance Act, il Governatore Abbott sta dimostrando una leadership in stile Texas nella governance dell’intelligenza artificiale. In un momento in cui altri affermano che l’AI è una tecnologia eccezionale che non dovrebbe avere guardrail, il Texas dimostra che è fondamentale garantire sia l’innovazione che la sicurezza dei cittadini. Il sostegno del Governatore Abbott evidenzia anche l’importanza degli stati come laboratori nazionali bipartisan per sviluppare in modo agile la politica sull’AI.”

Obiettivi di TRAIGA

Il disegno di legge mira a:

  • Facilitare e promuovere lo sviluppo e l’uso responsabile dei sistemi di intelligenza artificiale;
  • Proteggere individui e gruppi da rischi noti e ragionevolmente prevedibili associati ai sistemi di intelligenza artificiale;
  • Fornire trasparenza riguardo ai rischi nello sviluppo, implementazione e utilizzo dei sistemi di intelligenza artificiale;
  • Fornire un preavviso ragionevole riguardo all’uso o all’uso previsto di sistemi di intelligenza artificiale da parte delle agenzie statali.

Applicazione di TRAIGA

La TRAIGA si applica a sviluppatori e utilizzatori di sistemi di intelligenza artificiale, comprese le entità governative. Un sviluppatore e utilizzatore di AI è ampiamente definito come colui che “sviluppa o utilizza un sistema di intelligenza artificiale in Texas.” Il disegno di legge richiede alle entità governative di fornire un avviso chiaro e evidente ai consumatori, prima o al momento dell’interazione, che il consumatore sta interagendo con l’AI, il che può essere fatto attraverso un hyperlink.

Inoltre, vieta alle entità governative di utilizzare l’AI per assegnare un punteggio sociale, inclusa la valutazione di individui basata su caratteristiche personali di comportamento sociale, o identificare un consumatore utilizzando dati biometrici senza il consenso dell’individuo.

Divieti Specifici

La TRAIGA proibisce ulteriormente a chiunque di sviluppare o utilizzare un sistema di intelligenza artificiale che “mira intenzionalmente a incitare o incoraggiare una persona a:

  • commettere autolesionismo fisico, incluso il suicidio;
  • nuocere a un’altra persona;
  • impegnarsi in attività criminali.”

Inoltre, vieta lo sviluppo o l’uso di un sistema di AI con l’“unico intento” di “violare, limitare o altrimenti compromettere i diritti di un individuo garantiti dalla Costituzione degli Stati Uniti,” o “discriminare illegalmente una classe protetta,” o “produrre, assistere o agevolare la produzione o distribuzione” di contenuti sessualmente espliciti e pornografia infantile, inclusi i deep fake.

Applicazione e Sanzioni

Il Attorney General del Texas ha giurisdizione esclusiva sull’applicazione della TRAIGA e può comminare sanzioni civili dopo la determinazione da parte del tribunale, a seconda dell’intento e della mancata cura delle violazioni, in importi compresi tra $10,000 e $200,000, con una violazione continuata soggetta a sanzioni di non meno di $2,000 e non più di $40,000 “per ogni giorno in cui la violazione continua.”

La legge entra in vigore il 1 gennaio 2026, quindi è ora il momento di determinare se si applica a te e quali misure adottare per conformarsi.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...