Regolamentazione dei Modelli Fondamentali: Verso una Nuova Era dell’AI in California

Rapporto del Gruppo di Lavoro sulla Regolamentazione dei Modelli Fondamentali in California

Il 18 marzo, il Gruppo di Lavoro Congiunto della California sui Modelli Fondamentali dell’IA ha pubblicato un rapporto preliminare sulla regolamentazione dei modelli fondamentali, con l’obiettivo di fornire una base evidenziale per le decisioni politiche riguardanti l’IA in California. Questo documento mira a garantire che queste potenti tecnologie possano beneficiare la società a livello globale, gestendo al contempo i rischi emergenti.

Il Gruppo di Lavoro è stato istituito dal Governatore della California Gavin Newsom nel settembre 2024, dopo il suo veto del Safe & Secure Innovation for Frontier AI Models Act. Il rapporto si basa sulla partnership della California con le università di Stanford e Berkeley, stabilita nell’ordinanza esecutiva del 2023 riguardante l’IA generativa.

Requisiti di Trasparenza

Il rapporto sottolinea che i requisiti di trasparenza dei modelli fondamentali sono una “fondamenta necessaria” per la regolamentazione dell’IA. Si raccomanda ai politici di prioritizzare la trasparenza pubblica per promuovere la responsabilità. In particolare, il rapporto suggerisce requisiti che riguardano cinque categorie di informazioni sui modelli fondamentali:

  1. Acquisizione dei dati di addestramento
  2. Pratiche di sicurezza degli sviluppatori
  3. Pratiche di sicurezza degli sviluppatori
  4. Test pre-deploy da parte degli sviluppatori e di terze parti
  5. Impatto a valle, includendo potenzialmente le dichiarazioni da parte degli enti che ospitano modelli fondamentali per il download o l’uso

Valutazioni dei Rischi da Terze Parti

Notando che la trasparenza da sola è spesso insufficiente, il rapporto afferma che le valutazioni dei rischi da terze parti sono essenziali per incentivare gli sviluppatori a migliorare la sicurezza dei loro modelli. Si raccomanda di considerare l’istituzione di porti sicuri che indennizzino la ricerca sulla sicurezza di interesse pubblico e meccanismi per comunicare rapidamente vulnerabilità identificate.

Protezione dei Whistleblower

Il rapporto valuta anche la necessità di protezione per i whistleblower, cioè i dipendenti e i contrattisti degli sviluppatori di modelli fondamentali. Si consiglia ai politici di considerare protezioni che coprano un’ampia gamma di attività degli sviluppatori di IA.

Requisiti di Segnalazione degli Eventi Avversi

Il rapporto identifica i requisiti di segnalazione degli eventi avversi come un “primo passo critico” per valutare i costi e i benefici della regolamentazione dell’IA. Si raccomanda di stabilire sistemi di segnalazione che forniscano report ad agenzie con l’autorità e l’expertise rilevanti.

Soglie di Regolamentazione dei Modelli Fondamentali

Infine, il rapporto esamina le opzioni per definire le soglie che attiverebbero i requisiti per i modelli fondamentali, inclusi:

  1. Soglie a livello di sviluppatore
  2. Soglie a livello di costo
  3. Soglie a livello di modello
  4. Soglie a livello di impatto

Le soglie di calcolo, come quelle stabilite dall’UE, sono attualmente considerate le più attraenti e dovrebbero essere utilizzate in combinazione con altri metriche.

Il rapporto e il processo di commento pubblico informeranno i legislatori mentre considerano la legislazione sull’IA durante la sessione legislativa del 2025, inclusa una proposta di legge sui whistleblower per i modelli fondamentali. Altre giurisdizioni come Colorado, Illinois e New York stanno considerando legislazioni simili.

Il Gruppo di Lavoro sta cercando input pubblico sul rapporto attraverso il proprio sito web, con risposte dovute entro il 8 aprile 2025. La versione finale del rapporto è prevista per essere rilasciata entro giugno 2025.

More Insights

Regolamentazione dell’IA: verso un futuro più sicuro nel settore assicurativo

Il Chartered Insurance Institute (CII) ha richiesto chiari quadri di responsabilità e una strategia di competenze a livello settoriale per guidare l'uso dell'intelligenza artificiale (AI) nei servizi...

Regolamentazione dell’IA nel settore MedTech in APAC

La regolamentazione dell'intelligenza artificiale (AI) nella regione Asia-Pacifico è ancora agli inizi, principalmente governata da normative esistenti progettate per altre tecnologie. Nonostante ciò...

Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Nel primo semestre del 2025, New York ha iniziato a regolare l'intelligenza artificiale (AI) a livello statale con l'introduzione di leggi per affrontare la discriminazione algoritmica, in particolare...

Gestire i Rischi dell’Intelligenza Artificiale: Un Approccio Strategico

L'articolo discute l'importanza della gestione dei rischi nell'intelligenza artificiale, evidenziando che il rischio AI può derivare da dati errati o da attacchi esterni. Utilizzare un framework di...

Comprendere l’Atto sull’Intelligenza Artificiale dell’UE

L'Unione Europea ha introdotto l'Artificial Intelligence Act (AI Act), una regolamentazione storica progettata per gestire i rischi e le opportunità delle tecnologie AI in Europa. Questo articolo...

Legge Fondamentale sull’IA in Corea: Un Nuovo Orizzonte Normativo

La Corea del Sud ha adottato la Legge di Base sull'Intelligenza Artificiale, diventando il primo mercato asiatico a stabilire un quadro normativo completo per l'IA. Questa legislazione avrà un impatto...

Intelligenza Artificiale e Regolamentazione: Preparati al Cambiamento

L'atto sull'IA dell'UE e il DORA stanno creando una nuova complessità per le entità finanziarie, richiedendo un approccio basato sul rischio. È fondamentale quantificare l'impatto finanziario delle...

Regolamentare l’IA: Sfide e Opportunità nell’Atlantico

L'intelligenza artificiale (IA) è diventata una delle forze tecnologiche più decisive del nostro tempo, con il potere di rimodellare le economie e le società. Questo capitolo esplora il momento...

Strategia Europea per l’Intelligenza Artificiale: Verso le Gigafabbriche

La Commissione Europea vuole ridurre le barriere per l'implementazione dell'intelligenza artificiale, promuovendo la costruzione di "gigafabbriche AI" per migliorare l'infrastruttura dei centri dati...