Regolamentazione dei Modelli Fondamentali: Verso una Nuova Era dell’AI in California

Rapporto del Gruppo di Lavoro sulla Regolamentazione dei Modelli Fondamentali in California

Il 18 marzo, il Gruppo di Lavoro Congiunto della California sui Modelli Fondamentali dell’IA ha pubblicato un rapporto preliminare sulla regolamentazione dei modelli fondamentali, con l’obiettivo di fornire una base evidenziale per le decisioni politiche riguardanti l’IA in California. Questo documento mira a garantire che queste potenti tecnologie possano beneficiare la società a livello globale, gestendo al contempo i rischi emergenti.

Il Gruppo di Lavoro è stato istituito dal Governatore della California Gavin Newsom nel settembre 2024, dopo il suo veto del Safe & Secure Innovation for Frontier AI Models Act. Il rapporto si basa sulla partnership della California con le università di Stanford e Berkeley, stabilita nell’ordinanza esecutiva del 2023 riguardante l’IA generativa.

Requisiti di Trasparenza

Il rapporto sottolinea che i requisiti di trasparenza dei modelli fondamentali sono una “fondamenta necessaria” per la regolamentazione dell’IA. Si raccomanda ai politici di prioritizzare la trasparenza pubblica per promuovere la responsabilità. In particolare, il rapporto suggerisce requisiti che riguardano cinque categorie di informazioni sui modelli fondamentali:

  1. Acquisizione dei dati di addestramento
  2. Pratiche di sicurezza degli sviluppatori
  3. Pratiche di sicurezza degli sviluppatori
  4. Test pre-deploy da parte degli sviluppatori e di terze parti
  5. Impatto a valle, includendo potenzialmente le dichiarazioni da parte degli enti che ospitano modelli fondamentali per il download o l’uso

Valutazioni dei Rischi da Terze Parti

Notando che la trasparenza da sola è spesso insufficiente, il rapporto afferma che le valutazioni dei rischi da terze parti sono essenziali per incentivare gli sviluppatori a migliorare la sicurezza dei loro modelli. Si raccomanda di considerare l’istituzione di porti sicuri che indennizzino la ricerca sulla sicurezza di interesse pubblico e meccanismi per comunicare rapidamente vulnerabilità identificate.

Protezione dei Whistleblower

Il rapporto valuta anche la necessità di protezione per i whistleblower, cioè i dipendenti e i contrattisti degli sviluppatori di modelli fondamentali. Si consiglia ai politici di considerare protezioni che coprano un’ampia gamma di attività degli sviluppatori di IA.

Requisiti di Segnalazione degli Eventi Avversi

Il rapporto identifica i requisiti di segnalazione degli eventi avversi come un “primo passo critico” per valutare i costi e i benefici della regolamentazione dell’IA. Si raccomanda di stabilire sistemi di segnalazione che forniscano report ad agenzie con l’autorità e l’expertise rilevanti.

Soglie di Regolamentazione dei Modelli Fondamentali

Infine, il rapporto esamina le opzioni per definire le soglie che attiverebbero i requisiti per i modelli fondamentali, inclusi:

  1. Soglie a livello di sviluppatore
  2. Soglie a livello di costo
  3. Soglie a livello di modello
  4. Soglie a livello di impatto

Le soglie di calcolo, come quelle stabilite dall’UE, sono attualmente considerate le più attraenti e dovrebbero essere utilizzate in combinazione con altri metriche.

Il rapporto e il processo di commento pubblico informeranno i legislatori mentre considerano la legislazione sull’IA durante la sessione legislativa del 2025, inclusa una proposta di legge sui whistleblower per i modelli fondamentali. Altre giurisdizioni come Colorado, Illinois e New York stanno considerando legislazioni simili.

Il Gruppo di Lavoro sta cercando input pubblico sul rapporto attraverso il proprio sito web, con risposte dovute entro il 8 aprile 2025. La versione finale del rapporto è prevista per essere rilasciata entro giugno 2025.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...