Questo progetto di legge della California richiederà trasparenza dalle aziende di IA. Ma impedirà davvero disastri maggiori?
Quando si parla di IA, come va la California, così va la nazione. Lo stato più grande degli Stati Uniti per popolazione è anche il centro dell’innovazione nell’IA a livello globale. La California ospita 32 delle 50 aziende di IA più importanti al mondo. Questa dimensione e influenza hanno dato allo stato il peso per diventare un pioniere nella regolamentazione, stabilendo il tono per il resto del paese su questioni ambientali, lavorative e di protezione dei consumatori. Recentemente, anche l’IA è entrata nel mirino delle politiche.
Ora, dopo la drammatica sconfitta di una proposta di moratoria federale sulla regolamentazione dell’IA da parte degli stati, i legislatori californiani vedono una finestra di opportunità limitata per stabilire le basi delle leggi sull’IA nel resto del paese. Nelle prime ore di sabato mattina, l’Assemblea dello Stato della California ha votato a favore del progetto di legge SB 53, che richiederà rapporti di trasparenza dai sviluppatori di modelli di IA altamente potenti. Questo progetto di legge, che ha superato entrambe le parti della legislatura statale, ora attende la firma o il veto del Governatore Gavin Newsom.
Cosa prevede il progetto di legge SB 53?
Il progetto di legge SB 53 rappresenta un tentativo di regolare i rischi catastrofici associati all’IA. Si concentra su modelli di IA “frontier”, come ChatGPT di OpenAI, Gemini di Google e Claude di Anthropic, che richiedono enormi quantità di dati e potenza di calcolo. Questi modelli di IA generativa sono tra i più avanzati e rappresentano un rischio potenziale per la sicurezza pubblica.
SB 53 definisce un rischio catastrofico come un rischio prevedibile che potrebbe causare più di 50 vittime o oltre 1 miliardo di dollari in danni. Anche se è difficile definire con precisione cosa costituisca un rischio catastrofico, il progetto di legge mira a prevenire disastri su scala locale, nazionale e globale.
Rischi catastrofici e trasparenza
Il progetto di legge mira a garantire che le aziende di IA sviluppino quadri di sicurezza che dettagliino come affrontano la riduzione dei rischi catastrofici. Prima di distribuire i loro modelli, le aziende dovranno pubblicare rapporti di sicurezza e sicurezza e riferire incidenti critici entro 15 giorni ai servizi di emergenza della California. Inoltre, offre protezioni per i whistleblower che segnalano il rilascio di modelli non sicuri.
Sebbene un singolo progetto di legge statale focalizzato sulla trasparenza probabilmente non sarà sufficiente per prevenire attacchi informatici devastanti, rappresenta un primo passo per regolare questa tecnologia in rapida evoluzione prima che superi gli sforzi di supervisione.
Controversie e opposizioni
Il dibattito attorno al progetto di legge SB 53 è complicato da opposizioni da parte di organizzazioni industriali che sostengono che la regolamentazione aggiuntiva sarebbe costosa e che le aziende di IA sono già incentivati a evitare danni catastrofici. Alcuni critici avvertono che il progetto potrebbe alimentare una complessità di conformità che soffocherebbe l’innovazione.
Nonostante le critiche, aziende come Anthropic hanno sostenuto entusiasticamente il progetto, affermando che la governance dell’IA è necessaria e che SB 53 offre un percorso solido verso una regolamentazione proattiva.
Conclusione
Se il Governatore Newsom firmerà il progetto di legge SB 53, potrebbe ispirare ulteriori tentativi statali di regolamentazione dell’IA. La discussione su come gestire i rischi catastrofici dell’IA è fondamentale per determinare le priorità nella prevenzione e nella protezione della società. L’adozione di un approccio trasparente e proattivo potrebbe non solo prevenire disastri futuri, ma anche ridurre i danni già esistenti causati dall’IA.