Normative sulla Sicurezza dell’Intelligenza Artificiale in California

Trasparenza nella Legge sull’Intelligenza Artificiale Avanzata (SB-53)

Il 29 settembre, il Governatore della California, Gavin Newsom, ha firmato la Legge sulla Trasparenza nell’Intelligenza Artificiale Avanzata (“TFAIA”), rendendo la California il primo stato a richiedere divulgazioni di sicurezza standardizzate dai sviluppatori di modelli di intelligenza artificiale (AI) avanzati.

In assenza di una legislazione federale completa imminente riguardante la sicurezza dell’AI, la California si unisce a un numero crescente di stati che cercano di guidare le questioni di sicurezza dell’AI. La legge TFAIA è una risposta a un dibattito di lunga data sulla corretta portata della regolamentazione della sicurezza dell’AI in California.

Panoramica della TFAIA

La TFAIA richiede che i sviluppatori divulghino come gestiscono i rischi di sicurezza e introduce nuovi meccanismi per la trasparenza, la responsabilità e l’applicazione. I sviluppatori che non sono in conformità con la legge quando entra in vigore a gennaio 2026 rischiano sanzioni civili fino a $1.000.000 per violazione, applicate dal Procuratore Generale della California.

A chi si applica

La TFAIA si applica ai sviluppatori di modelli AI avanzati, definiti come modelli fondazionali addestrati su un numero di operazioni di calcolo superiore a 10^26, inclusi i poteri informatici utilizzati in successivi affinamenti o modifiche materiali. La legge impone requisiti di trasparenza e responsabilità aggiuntivi ai “grandi sviluppatori” di AI la cui entrata annuale supera $500.000.000.

Requisiti di pubblicazione

I grandi sviluppatori devono pubblicare un quadro di sicurezza generale accessibile, che mostri come incorporano standard nazionali, internazionali e migliori pratiche di consenso del settore. Questo quadro deve includere pratiche di cybersecurity per proteggere i pesi del modello non rilasciati da modifiche non autorizzate.

Trasparenza al momento del rilascio

Quando un sviluppatore rilascia un nuovo modello o un modello sostanzialmente modificato, deve pubblicare un report di trasparenza che identifica la data di rilascio del modello, le modalità di utilizzo e qualsiasi restrizione sul suo utilizzo.

Segnalazione di incidenti critici di sicurezza

La legge richiede ai sviluppatori di notificare l’Ufficio dei Servizi di Emergenza della California di qualsiasi incidente critico di sicurezza entro 15 giorni dalla scoperta. Se l’incidente presenta un rischio imminente di morte o grave infortunio, la segnalazione deve essere effettuata entro 24 ore.

Protezione dei whistleblower

La legge stabilisce forti protezioni per i whistleblower per i dipendenti dei sviluppatori di AI, proibendo le ritorsioni e richiedendo l’istituzione di canali di segnalazione anonimi.

Consorzio “CalCompute”

La TFAIA prevede la creazione di un consorzio per progettare un cluster di calcolo pubblico sostenuto dallo stato, “CalCompute”, per sostenere l’innovazione nell’AI in modo sicuro ed equo.

Prospettive future

La legge riconosce che la frontiera dell’AI è in continua evoluzione e che quindi la legge dovrebbe evolversi di conseguenza. Viene specificamente indicato che il Dipartimento della Tecnologia della California deve rivedere annualmente le definizioni di “modello avanzato” e “grande sviluppatore avanzato”.

Con l’entrata in vigore di questa legge, ci si aspetta che altri stati seguano l’esempio della California, con oltre 100 proposte di legge già in discussione a livello nazionale.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...