Utah Estende le Regole di Sicurezza per i Bambini all’Intelligenza Artificiale

Utah Moves to Extend Child Safety Tech Rules to AI

Il 27 gennaio 2026, i legislatori dell’Utah stanno spingendo per una nuova regolamentazione della tecnologia, concentrandosi questa volta sui sistemi di intelligenza artificiale avanzati e sulla sicurezza pubblica.

Il progetto di legge H.B. 286

Il rappresentante Doug Fiefia ha introdotto il disegno di legge H.B. 286, noto come Artificial Intelligence Transparency Act, per la sessione legislativa generale del 2026. Questo disegno di legge richiederebbe alle più grandi aziende di intelligenza artificiale operanti in Utah di divulgare pubblicamente come valutano e mitigano i rischi seri legati ai loro sistemi, inclusi i danni che potrebbero colpire i bambini.

Il progetto si basa sugli sforzi recenti dell’Utah per regolamentare le piattaforme di social media, segnando l’intento dello stato di assumere un ruolo più attivo nella definizione delle modalità di governance delle potenti tecnologie digitali.

Requisiti del disegno di legge

Secondo l’H.B. 286, le aziende di intelligenza artificiale coperte sarebbero tenute a:

  • Scrivere e pubblicare piani di sicurezza pubblica e protezione dei bambini che spiegano come valutano e mitigano i rischi severi legati all’IA.
  • Seguirli nella pratica, piuttosto che trattarli come impegni volontari.
  • Segnalare incidenti significativi relativi alla sicurezza dell’IA.
  • Astenersi dal prendere provvedimenti di ritorsione contro i dipendenti che sollevano preoccupazioni interne o divulgano fallimenti.

I sostenitori affermano che il disegno di legge colma un gap normativo. Anche se molte aziende di IA hanno adottato volontariamente framework di sicurezza interni, l’Utah non richiede attualmente loro di documentare o divulgare tali sforzi.

Strategia dei legislatori dell’Utah

L’Utah si è già posizionata come leader nazionale nella regolamentazione tecnologica focalizzata sui bambini, in particolare attorno ai social media. Nel marzo 2023, l’Utah è diventata il primo stato degli Stati Uniti ad adottare leggi che restringono l’uso dei social media da parte dei bambini, inclusi requisiti di consenso dei genitori e verifica dell’età.

Queste misure sono state descritte come una leadership nazionale nella salvaguardia dei giovani online, presentando le politiche dell’Utah come un modello da seguire per altri stati.

Supporto pubblico e sfide

La proposta del disegno di legge ha ricevuto un forte supporto pubblico, con un sondaggio che mostra una ampia preoccupazione dei cittadini riguardo alla supervisione dell’IA. Il 90% degli elettori dell’Utah sostiene la necessità di richiedere agli sviluppatori di IA di implementare protocolli di sicurezza per proteggere i bambini.

H.B. 286 stabilisce confini chiari riguardo sia all’ambito che all’applicazione. Si applica solo ai grandi sviluppatori di frontiera, definiti come aziende che hanno addestrato modelli di IA avanzati utilizzando almeno 1026 operazioni computazionali e segnalato almeno 500 milioni di dollari di ricavi annuali nell’anno precedente.

Conclusione

Il disegno di legge H.B. 286 sarà sottoposto a una prima valutazione oggi, 27 gennaio, quando verrà esaminato dalla Commissione per lo Sviluppo Economico e i Servizi per la Forza Lavoro. Se avanzerà, si avvicinerà a un voto completo della Camera e a un dibattito più sostanziale su quanto lontano dovrebbero andare gli stati nell’obbligare gli sviluppatori di IA a rendere pubblicamente conto dei rischi per la sicurezza.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...