L’Atto Texano per la Governance dell’Intelligenza Artificiale: Un Nuovo Modello per Gli Stati

Il Texas approva una legge completa per la governance dell’IA

Il 2 giugno, il legislativo del Texas ha approvato la Legge sulla governance responsabile dell’intelligenza artificiale del Texas, nota come Texas AI Act o progetto di legge, che ora attende la firma o il veto del governatore. Se approvata, la legge entrerà in vigore il 1 gennaio 2026. Si tratta della più completa normativa sulla governance dell’IA mai approvata a livello statale fino ad oggi. Se ratificata, il Texas diventerà il quarto stato, dopo Colorado, Utah e California, a promulgare una legislazione specifica per l’IA.

Questa legge è emersa in un momento cruciale, dopo che la Camera dei Rappresentanti degli Stati Uniti ha approvato un moratorium federale di 10 anni sulla regolamentazione statale dei sistemi di IA, che precluderebbe l’applicazione delle leggi statali esistenti in materia di IA. È importante notare che 40 procuratori generali statali hanno inviato una lettera bipartisan ai legislatori federali opponendosi a tale moratorium. Questa tensione tra federale e statale rende l’approccio del Texas particolarmente significativo.

Ambito di applicazione della legge

Il progetto di legge si applica agli sviluppatori e ai fornitori di qualsiasi “sistema di intelligenza artificiale”, definito come “qualsiasi sistema basato su macchina che, per qualsiasi obiettivo esplicito o implicito, deduce dagli input ricevuti come generare output, inclusi contenuti, decisioni, previsioni o raccomandazioni, che possono influenzare ambienti fisici o virtuali.” Questa definizione è potenzialmente più ampia rispetto alla regolamentazione di Colorado e Utah, che si concentra solo sui sistemi di IA “ad alto rischio”.

La legge impone determinati obblighi di divulgazione riguardo allo sviluppo e all’implementazione dei sistemi di IA. Ad esempio, i fornitori di servizi e trattamenti sanitari che utilizzano IA devono informare i pazienti della loro utilizzo. Inoltre, sono incluse proibizioni sullo sviluppo o sull’implementazione di un sistema di IA che causi danni a terzi, incoraggi l’auto-inflizione di danno (incluso il suicidio) o che partecipi ad attività criminali.

È anche vietato sviluppare o implementare IA che “violi, limiti o comprometta” qualsiasi diritto garantito dalla Costituzione degli Stati Uniti, o che discrimini una persona sulla base di caratteristiche protette come razza, colore, sesso, età o disabilità. Anche se questi obblighi si applicano sia al settore pubblico che a quello privato, le proibizioni sulla discriminazione non si applicano alle compagnie di assicurazione o alle istituzioni finanziarie, purché siano conformi alle loro normative specifiche di settore. Infine, è vietato sviluppare o implementare IA esclusivamente per creare video espliciti sessuali falsi o per produrre pornografia infantile, che comporterebbe sanzioni penali secondo le leggi statali applicabili.

Quadro normativo e di enforcement

Il Procura Generale del Texas avrà poteri esclusivi di enforcement, inclusa la possibilità di emettere richieste di indagine civile per ottenere dati di addestramento, documenti di scopo e metriche relative ai sistemi di IA. Se una persona è ritenuta in violazione della legge, il procuratore deve inviare un avviso alla parte, che avrà un periodo di “cura” di 60 giorni per rimediare alla violazione. Le agenzie statali del Texas avranno anche la possibilità di applicare la legge contro persone e aziende all’interno delle loro giurisdizioni. La legge prevede sanzioni civili comprese tra $10.000 e $12.000 per violazioni sanabili, tra $80.000 e $200.000 per violazioni non sanabili e tra $2.000 e $40.000 al giorno per violazioni continuate. Le sanzioni monetarie si aggiungono a potenziali rimedi ingiuntivi.

La legislazione crea anche un consiglio per l’IA del Texas presso il Dipartimento delle Risorse Informatiche del Texas. Il consiglio è incaricato di garantire che i sistemi di IA sviluppati e implementati in Texas operino nel migliore interesse dei cittadini texani, valutando leggi e normative associate all’IA per miglioramenti, migliorando l’efficienza del governo attraverso l’implementazione di sistemi di IA e fornendo consulenza al governo statale e locale e all’assemblea legislativa riguardo all’IA.

Implicazioni per le aziende

Se approvata, la Legge sull’IA del Texas imporrà il set di normative di governance più completo sui sistemi di IA più ampio mai visto. Data la dimensione del Texas, il suo ambiente favorevole alle imprese e la concentrazione di aziende tecnologiche nello stato, la legge avrà un impatto significativo a livello nazionale sullo sviluppo e sull’implementazione dei sistemi di IA e sulla regolamentazione e legislazione correlate.

Inoltre, la legge darà al procuratore generale del Texas, Ken Paxton, un ulteriore strumento nei suoi recenti sforzi volti alla protezione della privacy e dei consumatori, inclusi i sistemi di IA. Paxton e altri procuratori generali statali hanno utilizzato leggi sulla privacy, protezione dei consumatori e discriminazione per intervenire nello sviluppo e nell’implementazione di IA nell’ultimo anno. Infatti, lo scorso settembre, Paxton ha annunciato un accordo con la compagnia tecnologica Pieces Technology, in base alla Legge sulle pratiche commerciali ingannevoli in Texas.

Conclusioni

Le aziende che utilizzano IA e fanno affari con i consumatori in più giurisdizioni devono riconoscere l’evoluzione rapida delle normative a livello statale relative allo sviluppo e all’implementazione dei sistemi di IA. Colorado, Utah, California e ora, potenzialmente, Texas hanno ciascuno requisiti unici che comportano significative sanzioni civili per non conformità. L’approccio innovativo e completo del Texas è destinato a fungere da modello per altri stati che considerano legislazioni simili.

Le aziende devono essere consapevoli che le autorità statali possono utilizzare leggi “tradizionali” contro l’uso dell’IA. Le imprese che pubblicizzano o rendono pubblici i loro sistemi di IA devono evitare di esagerare le capacità di tali prodotti, poiché sono soggette a leggi statali sulla protezione dei consumatori che vietano dichiarazioni false o fuorvianti. Infine, le aziende che utilizzano IA devono garantire che i loro sistemi producano risultati equi e non discriminatori in conformità con le normative anti-discriminazione statali.

Assicurarsi della conformità sin dalle fasi iniziali del ciclo di vita di un sistema di IA è la migliore mitigazione contro il rischio normativo in espansione. Le aziende che desiderano sviluppare o implementare sistemi di IA dovrebbero consultare esperti legali esterni.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...