Rapporto del Gruppo di Lavoro sulla Regolamentazione dei Modelli Fondamentali in California
Il 18 marzo, il Gruppo di Lavoro Congiunto della California sui Modelli Fondamentali dell’IA ha pubblicato un rapporto preliminare sulla regolamentazione dei modelli fondamentali, con l’obiettivo di fornire una base evidenziale per le decisioni politiche riguardanti l’IA in California. Questo documento mira a garantire che queste potenti tecnologie possano beneficiare la società a livello globale, gestendo al contempo i rischi emergenti.
Il Gruppo di Lavoro è stato istituito dal Governatore della California Gavin Newsom nel settembre 2024, dopo il suo veto del Safe & Secure Innovation for Frontier AI Models Act. Il rapporto si basa sulla partnership della California con le università di Stanford e Berkeley, stabilita nell’ordinanza esecutiva del 2023 riguardante l’IA generativa.
Requisiti di Trasparenza
Il rapporto sottolinea che i requisiti di trasparenza dei modelli fondamentali sono una “fondamenta necessaria” per la regolamentazione dell’IA. Si raccomanda ai politici di prioritizzare la trasparenza pubblica per promuovere la responsabilità. In particolare, il rapporto suggerisce requisiti che riguardano cinque categorie di informazioni sui modelli fondamentali:
- Acquisizione dei dati di addestramento
- Pratiche di sicurezza degli sviluppatori
- Pratiche di sicurezza degli sviluppatori
- Test pre-deploy da parte degli sviluppatori e di terze parti
- Impatto a valle, includendo potenzialmente le dichiarazioni da parte degli enti che ospitano modelli fondamentali per il download o l’uso
Valutazioni dei Rischi da Terze Parti
Notando che la trasparenza da sola è spesso insufficiente, il rapporto afferma che le valutazioni dei rischi da terze parti sono essenziali per incentivare gli sviluppatori a migliorare la sicurezza dei loro modelli. Si raccomanda di considerare l’istituzione di porti sicuri che indennizzino la ricerca sulla sicurezza di interesse pubblico e meccanismi per comunicare rapidamente vulnerabilità identificate.
Protezione dei Whistleblower
Il rapporto valuta anche la necessità di protezione per i whistleblower, cioè i dipendenti e i contrattisti degli sviluppatori di modelli fondamentali. Si consiglia ai politici di considerare protezioni che coprano un’ampia gamma di attività degli sviluppatori di IA.
Requisiti di Segnalazione degli Eventi Avversi
Il rapporto identifica i requisiti di segnalazione degli eventi avversi come un “primo passo critico” per valutare i costi e i benefici della regolamentazione dell’IA. Si raccomanda di stabilire sistemi di segnalazione che forniscano report ad agenzie con l’autorità e l’expertise rilevanti.
Soglie di Regolamentazione dei Modelli Fondamentali
Infine, il rapporto esamina le opzioni per definire le soglie che attiverebbero i requisiti per i modelli fondamentali, inclusi:
- Soglie a livello di sviluppatore
- Soglie a livello di costo
- Soglie a livello di modello
- Soglie a livello di impatto
Le soglie di calcolo, come quelle stabilite dall’UE, sono attualmente considerate le più attraenti e dovrebbero essere utilizzate in combinazione con altri metriche.
Il rapporto e il processo di commento pubblico informeranno i legislatori mentre considerano la legislazione sull’IA durante la sessione legislativa del 2025, inclusa una proposta di legge sui whistleblower per i modelli fondamentali. Altre giurisdizioni come Colorado, Illinois e New York stanno considerando legislazioni simili.
Il Gruppo di Lavoro sta cercando input pubblico sul rapporto attraverso il proprio sito web, con risposte dovute entro il 8 aprile 2025. La versione finale del rapporto è prevista per essere rilasciata entro giugno 2025.