California approva una legge storica sulla trasparenza dell’IA: Il Transparency in Frontier Artificial Intelligence Acth2>
Il 29 settembre 2025, il Governatore della California ha firmato il Senate Bill 53, noto come b>Transparency in Frontier Artificial Intelligence Actb> (TFAIA). Con questa legge, la California diventa il primo stato negli Stati Uniti a stabilire un quadro giuridico completo per garantire b>trasparenzab>, b>sicurezzab> e b>responsabilitàb> nello sviluppo e nell’implementazione di modelli avanzati di intelligenza artificiale (IA).p>
Ambito di applicazioneh3>
La TFAIA stabilisce nuovi requisiti di trasparenza e governance per le organizzazioni che sviluppano determinati sistemi avanzati di IA, noti come “modelli frontier”. Mentre la legge si applica ampiamente a tutti i sviluppatori frontier, alcune obbligazioni sono specificamente mirate ai b>grandi sviluppatori frontierb>.p>
Le definizioni chiave sotto la TFAIA includono:p>
-
li>b>Modello frontier:b> un modello di base addestrato utilizzando una quantità di potenza di calcolo superiore a 10sup>26sup> operazioni intere o in virgola mobile.li>
li>b>Sviluppatore frontier:b> una persona che ha addestrato, o avviato l’addestramento di, un modello frontier.li>
li>b>Grande sviluppatore frontier:b> uno sviluppatore frontier che, insieme alle sue affiliate, ha avuto un fatturato lordo annuale superiore a 500 milioni di dollari nell’anno solare precedente.li>
ul>
Obblighi chiaveh3>
Quadro di IA Frontierh4>
Sotto la TFAIA, i grandi sviluppatori frontier sono tenuti a implementare e pubblicare un b>Quadro di IA Frontierb>. Questo quadro deve essere aggiornato e reso pubblico almeno annualmente e entro 30 giorni da qualsiasi modifica sostanziale. Deve fornire un resoconto dettagliato su come i rischi catastrofici sono identificati, valutati e mitigati durante il ciclo di vita di un modello frontier.p>
La TFAIA definisce il b>rischio catastroficob> come un rischio prevedibile e materiale che lo sviluppo, l’archiviazione, l’uso o il dispiegamento di un modello frontier contribuisce materialmente alla morte di più di 50 persone o a danni superiori a 1 miliardo di dollari derivanti da un singolo incidente.p>
Pubblicazione del rapporto di trasparenzah4>
Tutti gli sviluppatori frontier devono pubblicare un b>rapporto di trasparenzab> prima o contemporaneamente al dispiegamento di un nuovo modello frontier. Questo rapporto deve includere un meccanismo per comunicare direttamente con lo sviluppatore, la data di rilascio del modello, le modalità di output supportate e gli usi previsti, insieme a eventuali restrizioni.p>
I grandi sviluppatori frontier hanno ulteriori obblighi di trasparenza, tra cui un’analisi dei rischi catastrofici associati e la divulgazione di eventuali coinvolgimenti di terzi nel processo di valutazione dei rischi.p>
Meccanismo di segnalazione degli incidenti critici di sicurezzah4>
La TFAIA richiede agli sviluppatori frontier di segnalare eventuali incidenti critici di sicurezza all’Ufficio dei Servizi di Emergenza entro 15 giorni dalla scoperta, o entro 24 ore se c’è un rischio imminente di morte o lesioni fisiche gravi.p>
Protezione dei informatorih3>
La TFAIA protegge i b>whistleblowerb> che segnalano rischi significativi per la salute e la sicurezza relativi ai modelli di IA frontier. Gli sviluppatori frontier devono informare chiaramente tutti i dipendenti riguardo a questi diritti e responsabilità.p>
Applicazione e sanzionih3>
La TFAIA autorizza il Procuratore Generale della California a far rispettare la legge, incluse sanzioni fino a 1 milione di dollari per ogni violazione. La legge entrerà in vigore il 1 gennaio 2026.p>
Conclusioni chiaveh3>
Con la TFAIA, la California ha spostato il panorama della trasparenza dell’IA da standard industriali volontari a un regime legale obbligatorio. Questo potrebbe influenzare altre legislazioni statali e contribuire a un crescente mosaico di regolamenti sull’IA a livello nazionale.p>