Normative sulla Sicurezza dell’Intelligenza Artificiale in California

Trasparenza nella Legge sull’Intelligenza Artificiale Avanzata (SB-53)

Il 29 settembre, il Governatore della California, Gavin Newsom, ha firmato la Legge sulla Trasparenza nell’Intelligenza Artificiale Avanzata (“TFAIA”), rendendo la California il primo stato a richiedere divulgazioni di sicurezza standardizzate dai sviluppatori di modelli di intelligenza artificiale (AI) avanzati.

In assenza di una legislazione federale completa imminente riguardante la sicurezza dell’AI, la California si unisce a un numero crescente di stati che cercano di guidare le questioni di sicurezza dell’AI. La legge TFAIA è una risposta a un dibattito di lunga data sulla corretta portata della regolamentazione della sicurezza dell’AI in California.

Panoramica della TFAIA

La TFAIA richiede che i sviluppatori divulghino come gestiscono i rischi di sicurezza e introduce nuovi meccanismi per la trasparenza, la responsabilità e l’applicazione. I sviluppatori che non sono in conformità con la legge quando entra in vigore a gennaio 2026 rischiano sanzioni civili fino a $1.000.000 per violazione, applicate dal Procuratore Generale della California.

A chi si applica

La TFAIA si applica ai sviluppatori di modelli AI avanzati, definiti come modelli fondazionali addestrati su un numero di operazioni di calcolo superiore a 10^26, inclusi i poteri informatici utilizzati in successivi affinamenti o modifiche materiali. La legge impone requisiti di trasparenza e responsabilità aggiuntivi ai “grandi sviluppatori” di AI la cui entrata annuale supera $500.000.000.

Requisiti di pubblicazione

I grandi sviluppatori devono pubblicare un quadro di sicurezza generale accessibile, che mostri come incorporano standard nazionali, internazionali e migliori pratiche di consenso del settore. Questo quadro deve includere pratiche di cybersecurity per proteggere i pesi del modello non rilasciati da modifiche non autorizzate.

Trasparenza al momento del rilascio

Quando un sviluppatore rilascia un nuovo modello o un modello sostanzialmente modificato, deve pubblicare un report di trasparenza che identifica la data di rilascio del modello, le modalità di utilizzo e qualsiasi restrizione sul suo utilizzo.

Segnalazione di incidenti critici di sicurezza

La legge richiede ai sviluppatori di notificare l’Ufficio dei Servizi di Emergenza della California di qualsiasi incidente critico di sicurezza entro 15 giorni dalla scoperta. Se l’incidente presenta un rischio imminente di morte o grave infortunio, la segnalazione deve essere effettuata entro 24 ore.

Protezione dei whistleblower

La legge stabilisce forti protezioni per i whistleblower per i dipendenti dei sviluppatori di AI, proibendo le ritorsioni e richiedendo l’istituzione di canali di segnalazione anonimi.

Consorzio “CalCompute”

La TFAIA prevede la creazione di un consorzio per progettare un cluster di calcolo pubblico sostenuto dallo stato, “CalCompute”, per sostenere l’innovazione nell’AI in modo sicuro ed equo.

Prospettive future

La legge riconosce che la frontiera dell’AI è in continua evoluzione e che quindi la legge dovrebbe evolversi di conseguenza. Viene specificamente indicato che il Dipartimento della Tecnologia della California deve rivedere annualmente le definizioni di “modello avanzato” e “grande sviluppatore avanzato”.

Con l’entrata in vigore di questa legge, ci si aspetta che altri stati seguano l’esempio della California, con oltre 100 proposte di legge già in discussione a livello nazionale.

More Insights

Collaborazione e Competizione nell’Intelligenza Artificiale

Il progetto Red Cell mira a sfidare le assunzioni e il pensiero di gruppo nel contesto delle politiche di sicurezza nazionale degli Stati Uniti. L'era dell'intelligenza artificiale sta rimodellando il...

La nuova politica dell’IA in Pakistan: un futuro di innovazione e opportunità

Il Pakistan ha introdotto una politica nazionale ambiziosa per l'intelligenza artificiale, mirata a costruire un mercato domestico dell'IA da 2,7 miliardi di dollari in cinque anni. La politica si...

Governare l’etica dell’IA per un futuro sostenibile

La governance etica dell'IA è ora una priorità strategica che richiede il coinvolgimento attivo dei dirigenti e una collaborazione trasversale per garantire che i principi etici siano integrati in...

Strategie AI per l’Istruzione Superiore

L'intelligenza artificiale sta trasformando l'istruzione superiore, migliorando le strategie didattiche e rafforzando la sicurezza fisica. Le istituzioni devono bilanciare sperimentazione ed...

Governare l’AI per un futuro sostenibile in Africa

L'intelligenza artificiale (IA) non è più solo appannaggio delle economie avanzate; sta gradualmente plasmando i servizi finanziari, l'agricoltura, l'istruzione e persino il governo in Africa. La...

Il Contraccolpo dell’Intelligenza Artificiale

La trasformazione economica dell'IA è iniziata, con aziende come IBM e Salesforce che hanno ridotto il personale grazie all'automazione. Tuttavia, l'adozione dell'IA solleverà questioni politiche...

Etica del lavoro digitale: responsabilità nell’era dell’IA

Il lavoro digitale sta diventando sempre più comune, ma sono state implementate poche regole ampiamente accettate per governarlo. La sfida principale per i leader è gestire l'implementazione e la...

Strumento Petri: Auditing AI Sicuro e Automatizzato

Anthropic ha lanciato Petri, uno strumento open source per l'audit della sicurezza dell'IA, progettato per testare automaticamente i modelli di linguaggio di grandi dimensioni (LLM) per comportamenti...

L’armonia tra il Regolamento UE sull’IA e il GDPR

L'IA è la parola d'ordine onnipresente nel settore legale e l'Atto sull'IA dell'UE è uno dei principali argomenti di interesse per molti professionisti legali. Questo articolo esplora le interazioni...