Regolamentazione dei Modelli Fondamentali: Verso una Nuova Era dell’AI in California

Rapporto del Gruppo di Lavoro sulla Regolamentazione dei Modelli Fondamentali in California

Il 18 marzo, il Gruppo di Lavoro Congiunto della California sui Modelli Fondamentali dell’IA ha pubblicato un rapporto preliminare sulla regolamentazione dei modelli fondamentali, con l’obiettivo di fornire una base evidenziale per le decisioni politiche riguardanti l’IA in California. Questo documento mira a garantire che queste potenti tecnologie possano beneficiare la società a livello globale, gestendo al contempo i rischi emergenti.

Il Gruppo di Lavoro è stato istituito dal Governatore della California Gavin Newsom nel settembre 2024, dopo il suo veto del Safe & Secure Innovation for Frontier AI Models Act. Il rapporto si basa sulla partnership della California con le università di Stanford e Berkeley, stabilita nell’ordinanza esecutiva del 2023 riguardante l’IA generativa.

Requisiti di Trasparenza

Il rapporto sottolinea che i requisiti di trasparenza dei modelli fondamentali sono una “fondamenta necessaria” per la regolamentazione dell’IA. Si raccomanda ai politici di prioritizzare la trasparenza pubblica per promuovere la responsabilità. In particolare, il rapporto suggerisce requisiti che riguardano cinque categorie di informazioni sui modelli fondamentali:

  1. Acquisizione dei dati di addestramento
  2. Pratiche di sicurezza degli sviluppatori
  3. Pratiche di sicurezza degli sviluppatori
  4. Test pre-deploy da parte degli sviluppatori e di terze parti
  5. Impatto a valle, includendo potenzialmente le dichiarazioni da parte degli enti che ospitano modelli fondamentali per il download o l’uso

Valutazioni dei Rischi da Terze Parti

Notando che la trasparenza da sola è spesso insufficiente, il rapporto afferma che le valutazioni dei rischi da terze parti sono essenziali per incentivare gli sviluppatori a migliorare la sicurezza dei loro modelli. Si raccomanda di considerare l’istituzione di porti sicuri che indennizzino la ricerca sulla sicurezza di interesse pubblico e meccanismi per comunicare rapidamente vulnerabilità identificate.

Protezione dei Whistleblower

Il rapporto valuta anche la necessità di protezione per i whistleblower, cioè i dipendenti e i contrattisti degli sviluppatori di modelli fondamentali. Si consiglia ai politici di considerare protezioni che coprano un’ampia gamma di attività degli sviluppatori di IA.

Requisiti di Segnalazione degli Eventi Avversi

Il rapporto identifica i requisiti di segnalazione degli eventi avversi come un “primo passo critico” per valutare i costi e i benefici della regolamentazione dell’IA. Si raccomanda di stabilire sistemi di segnalazione che forniscano report ad agenzie con l’autorità e l’expertise rilevanti.

Soglie di Regolamentazione dei Modelli Fondamentali

Infine, il rapporto esamina le opzioni per definire le soglie che attiverebbero i requisiti per i modelli fondamentali, inclusi:

  1. Soglie a livello di sviluppatore
  2. Soglie a livello di costo
  3. Soglie a livello di modello
  4. Soglie a livello di impatto

Le soglie di calcolo, come quelle stabilite dall’UE, sono attualmente considerate le più attraenti e dovrebbero essere utilizzate in combinazione con altri metriche.

Il rapporto e il processo di commento pubblico informeranno i legislatori mentre considerano la legislazione sull’IA durante la sessione legislativa del 2025, inclusa una proposta di legge sui whistleblower per i modelli fondamentali. Altre giurisdizioni come Colorado, Illinois e New York stanno considerando legislazioni simili.

Il Gruppo di Lavoro sta cercando input pubblico sul rapporto attraverso il proprio sito web, con risposte dovute entro il 8 aprile 2025. La versione finale del rapporto è prevista per essere rilasciata entro giugno 2025.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...