Nuovo Modello Texano per la Regolamentazione dell’IA

Texas ha creato un nuovo modello per la regolamentazione dell’IA statale

Il governatore del Texas, Greg Abbott, ha firmato il Texas Responsible Artificial Intelligence Governance Act (TRAIGA), diventando così il secondo stato degli Stati Uniti a adottare una legge completa sulla governance dell’IA, insieme al Colorado. Questa nuova legge introduce un approccio innovativo alla regolamentazione dell’IA, limitando la capacità del Texas di punire le aziende con divieti su solo alcuni danni intenzionali e ampliando i poteri investigativi dello stato.

Un nuovo standard per la regolamentazione dell’IA?

Con la recente abolizione della disposizione di moratoria sull’IA nel bilancio federale, il fervore legislativo riguardante l’IA è destinato a proseguire. Tuttavia, la direzione di questo movimento rimane incerta. Da un lato, alcuni stati, come il Colorado, stanno cercando di ritirarsi da leggi comprehensive sull’IA. Dall’altro, si assiste a un aumento di leggi specifiche per settore che regolano l’uso dell’IA in ambiti come chatbot, sanità e pubblicità politiche.

TRAIGA rappresenta una via di mezzo, concentrandosi sugli usi dell’IA piuttosto che sul potere dei modelli stessi. Limita l’applicazione della legge a un numero specifico di danni enumerati, offre difese affermative ai trasgressori e stabilisce alcuni limiti sulla raccolta di dati biometrici.

Obblighi e divieti chiave

TRAIGA impone specifici divieti ai sviluppatori e ai distributori di sistemi IA. Tra i divieti principali vi è il divieto di sviluppare sistemi IA che mirano a incitare o incoraggiare comportamenti di autolesionismo o attività criminali. Inoltre, la legge proibisce lo sviluppo di sistemi IA che violano i diritti costituzionali degli individui e quelli che discriminano illegalmente contro classi protette.

Programma di Sandbox e opportunità di cura

TRAIGA istituisce un Programma di Sandbox, un ambiente di test amministrato dallo stato per promuovere l’uso dell’IA in vari settori. Questo programma consente alle aziende di testare sistemi IA senza dover rispettare tutte le normative, ma non esenta i partecipanti dai divieti fondamentali della legge.

In caso di violazioni, la legge concede ai trasgressori un periodo di 60 giorni per correggere la situazione prima che possa iniziare un’azione legale formale. Inoltre, i trasgressori possono sostenere una difesa affermativa se dimostrano di aver scoperto le violazioni attraverso feedback degli utenti o di aver rispettato il National Institute of Standards and Technology’s AI Risk Management Framework.

Conclusione

Il TRAIGA potrebbe diventare un modello per altre giurisdizioni che desiderano promuovere lo sviluppo responsabile e l’uso dell’IA, proteggendo al contempo individui e gruppi dai rischi noti e prevedibili. Con il suo approccio equilibrato, il Texas sta tracciando una nuova strada nella regolamentazione dell’IA.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...