Nuovo Modello Texano per la Regolamentazione dell’IA

Texas ha creato un nuovo modello per la regolamentazione dell’IA statale

Il governatore del Texas, Greg Abbott, ha firmato il Texas Responsible Artificial Intelligence Governance Act (TRAIGA), diventando così il secondo stato degli Stati Uniti a adottare una legge completa sulla governance dell’IA, insieme al Colorado. Questa nuova legge introduce un approccio innovativo alla regolamentazione dell’IA, limitando la capacità del Texas di punire le aziende con divieti su solo alcuni danni intenzionali e ampliando i poteri investigativi dello stato.

Un nuovo standard per la regolamentazione dell’IA?

Con la recente abolizione della disposizione di moratoria sull’IA nel bilancio federale, il fervore legislativo riguardante l’IA è destinato a proseguire. Tuttavia, la direzione di questo movimento rimane incerta. Da un lato, alcuni stati, come il Colorado, stanno cercando di ritirarsi da leggi comprehensive sull’IA. Dall’altro, si assiste a un aumento di leggi specifiche per settore che regolano l’uso dell’IA in ambiti come chatbot, sanità e pubblicità politiche.

TRAIGA rappresenta una via di mezzo, concentrandosi sugli usi dell’IA piuttosto che sul potere dei modelli stessi. Limita l’applicazione della legge a un numero specifico di danni enumerati, offre difese affermative ai trasgressori e stabilisce alcuni limiti sulla raccolta di dati biometrici.

Obblighi e divieti chiave

TRAIGA impone specifici divieti ai sviluppatori e ai distributori di sistemi IA. Tra i divieti principali vi è il divieto di sviluppare sistemi IA che mirano a incitare o incoraggiare comportamenti di autolesionismo o attività criminali. Inoltre, la legge proibisce lo sviluppo di sistemi IA che violano i diritti costituzionali degli individui e quelli che discriminano illegalmente contro classi protette.

Programma di Sandbox e opportunità di cura

TRAIGA istituisce un Programma di Sandbox, un ambiente di test amministrato dallo stato per promuovere l’uso dell’IA in vari settori. Questo programma consente alle aziende di testare sistemi IA senza dover rispettare tutte le normative, ma non esenta i partecipanti dai divieti fondamentali della legge.

In caso di violazioni, la legge concede ai trasgressori un periodo di 60 giorni per correggere la situazione prima che possa iniziare un’azione legale formale. Inoltre, i trasgressori possono sostenere una difesa affermativa se dimostrano di aver scoperto le violazioni attraverso feedback degli utenti o di aver rispettato il National Institute of Standards and Technology’s AI Risk Management Framework.

Conclusione

Il TRAIGA potrebbe diventare un modello per altre giurisdizioni che desiderano promuovere lo sviluppo responsabile e l’uso dell’IA, proteggendo al contempo individui e gruppi dai rischi noti e prevedibili. Con il suo approccio equilibrato, il Texas sta tracciando una nuova strada nella regolamentazione dell’IA.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...