Trasparenza nella Legge sull’Intelligenza Artificiale Avanzata (SB-53)
Il 29 settembre, il Governatore della California, Gavin Newsom, ha firmato la Legge sulla Trasparenza nell’Intelligenza Artificiale Avanzata (“TFAIA”), rendendo la California il primo stato a richiedere divulgazioni di sicurezza standardizzate dai sviluppatori di modelli di intelligenza artificiale (AI) avanzati.
In assenza di una legislazione federale completa imminente riguardante la sicurezza dell’AI, la California si unisce a un numero crescente di stati che cercano di guidare le questioni di sicurezza dell’AI. La legge TFAIA è una risposta a un dibattito di lunga data sulla corretta portata della regolamentazione della sicurezza dell’AI in California.
Panoramica della TFAIA
La TFAIA richiede che i sviluppatori divulghino come gestiscono i rischi di sicurezza e introduce nuovi meccanismi per la trasparenza, la responsabilità e l’applicazione. I sviluppatori che non sono in conformità con la legge quando entra in vigore a gennaio 2026 rischiano sanzioni civili fino a $1.000.000 per violazione, applicate dal Procuratore Generale della California.
A chi si applica
La TFAIA si applica ai sviluppatori di modelli AI avanzati, definiti come modelli fondazionali addestrati su un numero di operazioni di calcolo superiore a 10^26, inclusi i poteri informatici utilizzati in successivi affinamenti o modifiche materiali. La legge impone requisiti di trasparenza e responsabilità aggiuntivi ai “grandi sviluppatori” di AI la cui entrata annuale supera $500.000.000.
Requisiti di pubblicazione
I grandi sviluppatori devono pubblicare un quadro di sicurezza generale accessibile, che mostri come incorporano standard nazionali, internazionali e migliori pratiche di consenso del settore. Questo quadro deve includere pratiche di cybersecurity per proteggere i pesi del modello non rilasciati da modifiche non autorizzate.
Trasparenza al momento del rilascio
Quando un sviluppatore rilascia un nuovo modello o un modello sostanzialmente modificato, deve pubblicare un report di trasparenza che identifica la data di rilascio del modello, le modalità di utilizzo e qualsiasi restrizione sul suo utilizzo.
Segnalazione di incidenti critici di sicurezza
La legge richiede ai sviluppatori di notificare l’Ufficio dei Servizi di Emergenza della California di qualsiasi incidente critico di sicurezza entro 15 giorni dalla scoperta. Se l’incidente presenta un rischio imminente di morte o grave infortunio, la segnalazione deve essere effettuata entro 24 ore.
Protezione dei whistleblower
La legge stabilisce forti protezioni per i whistleblower per i dipendenti dei sviluppatori di AI, proibendo le ritorsioni e richiedendo l’istituzione di canali di segnalazione anonimi.
Consorzio “CalCompute”
La TFAIA prevede la creazione di un consorzio per progettare un cluster di calcolo pubblico sostenuto dallo stato, “CalCompute”, per sostenere l’innovazione nell’AI in modo sicuro ed equo.
Prospettive future
La legge riconosce che la frontiera dell’AI è in continua evoluzione e che quindi la legge dovrebbe evolversi di conseguenza. Viene specificamente indicato che il Dipartimento della Tecnologia della California deve rivedere annualmente le definizioni di “modello avanzato” e “grande sviluppatore avanzato”.
Con l’entrata in vigore di questa legge, ci si aspetta che altri stati seguano l’esempio della California, con oltre 100 proposte di legge già in discussione a livello nazionale.