Regolamentazione dei Modelli Fondamentali: Verso una Nuova Era dell’AI in California

Rapporto del Gruppo di Lavoro sulla Regolamentazione dei Modelli Fondamentali in California

Il 18 marzo, il Gruppo di Lavoro Congiunto della California sui Modelli Fondamentali dell’IA ha pubblicato un rapporto preliminare sulla regolamentazione dei modelli fondamentali, con l’obiettivo di fornire una base evidenziale per le decisioni politiche riguardanti l’IA in California. Questo documento mira a garantire che queste potenti tecnologie possano beneficiare la società a livello globale, gestendo al contempo i rischi emergenti.

Il Gruppo di Lavoro è stato istituito dal Governatore della California Gavin Newsom nel settembre 2024, dopo il suo veto del Safe & Secure Innovation for Frontier AI Models Act. Il rapporto si basa sulla partnership della California con le università di Stanford e Berkeley, stabilita nell’ordinanza esecutiva del 2023 riguardante l’IA generativa.

Requisiti di Trasparenza

Il rapporto sottolinea che i requisiti di trasparenza dei modelli fondamentali sono una “fondamenta necessaria” per la regolamentazione dell’IA. Si raccomanda ai politici di prioritizzare la trasparenza pubblica per promuovere la responsabilità. In particolare, il rapporto suggerisce requisiti che riguardano cinque categorie di informazioni sui modelli fondamentali:

  1. Acquisizione dei dati di addestramento
  2. Pratiche di sicurezza degli sviluppatori
  3. Pratiche di sicurezza degli sviluppatori
  4. Test pre-deploy da parte degli sviluppatori e di terze parti
  5. Impatto a valle, includendo potenzialmente le dichiarazioni da parte degli enti che ospitano modelli fondamentali per il download o l’uso

Valutazioni dei Rischi da Terze Parti

Notando che la trasparenza da sola è spesso insufficiente, il rapporto afferma che le valutazioni dei rischi da terze parti sono essenziali per incentivare gli sviluppatori a migliorare la sicurezza dei loro modelli. Si raccomanda di considerare l’istituzione di porti sicuri che indennizzino la ricerca sulla sicurezza di interesse pubblico e meccanismi per comunicare rapidamente vulnerabilità identificate.

Protezione dei Whistleblower

Il rapporto valuta anche la necessità di protezione per i whistleblower, cioè i dipendenti e i contrattisti degli sviluppatori di modelli fondamentali. Si consiglia ai politici di considerare protezioni che coprano un’ampia gamma di attività degli sviluppatori di IA.

Requisiti di Segnalazione degli Eventi Avversi

Il rapporto identifica i requisiti di segnalazione degli eventi avversi come un “primo passo critico” per valutare i costi e i benefici della regolamentazione dell’IA. Si raccomanda di stabilire sistemi di segnalazione che forniscano report ad agenzie con l’autorità e l’expertise rilevanti.

Soglie di Regolamentazione dei Modelli Fondamentali

Infine, il rapporto esamina le opzioni per definire le soglie che attiverebbero i requisiti per i modelli fondamentali, inclusi:

  1. Soglie a livello di sviluppatore
  2. Soglie a livello di costo
  3. Soglie a livello di modello
  4. Soglie a livello di impatto

Le soglie di calcolo, come quelle stabilite dall’UE, sono attualmente considerate le più attraenti e dovrebbero essere utilizzate in combinazione con altri metriche.

Il rapporto e il processo di commento pubblico informeranno i legislatori mentre considerano la legislazione sull’IA durante la sessione legislativa del 2025, inclusa una proposta di legge sui whistleblower per i modelli fondamentali. Altre giurisdizioni come Colorado, Illinois e New York stanno considerando legislazioni simili.

Il Gruppo di Lavoro sta cercando input pubblico sul rapporto attraverso il proprio sito web, con risposte dovute entro il 8 aprile 2025. La versione finale del rapporto è prevista per essere rilasciata entro giugno 2025.

More Insights

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...

AI Sovrana: Il Futuro della Produzione Intelligente

Le nuvole AI sovrane offrono sia controllo che conformità, affrontando le crescenti preoccupazioni riguardo alla residenza dei dati e al rischio normativo. Per i fornitori di servizi gestiti, questa è...

Etica dell’IA: Progresso e Inclusività in Scozia

L'Allianza Scozzese per l'IA ha pubblicato il suo Rapporto di Impatto 2024/2025, evidenziando un anno di progressi nella promozione di un'intelligenza artificiale etica e inclusiva in Scozia. Il...

L’Urgenza del Regolamento sull’IA: Preparati al Cambiamento

L'annuncio della Commissione UE venerdì scorso che non ci sarà un ritardo nell'Atto sull'IA dell'UE ha suscitato reazioni contrastanti. È tempo di agire e ottenere alcuni fatti, poiché le scadenze di...

Affidabilità dei Modelli Linguistici nella Prospettiva della Legge AI dell’UE

Lo studio sistematico esamina la fiducia nei grandi modelli linguistici (LLM) alla luce del Regolamento sull'IA dell'UE, evidenziando le preoccupazioni relative all'affidabilità e ai principi di...

La pausa sull’AI Act dell’UE: opportunità o rischio?

Il 8 luglio 2025, la Commissione Europea ha ribadito il proprio impegno per rispettare il calendario dell'AI Act, nonostante le richieste di rinvio da parte di alcune aziende. Il Primo Ministro...

Controlli Trump sull’IA: Rischi e Opportunità nel Settore Tecnologico

L'amministrazione Trump si sta preparando a nuove restrizioni sulle esportazioni di chip AI verso Malesia e Thailandia, al fine di prevenire l'accesso della Cina a processori avanzati. Le nuove...

Governance AI: Fondamenti per un Futuro Etico

La governance dell'intelligenza artificiale e la governance dei dati sono diventate cruciali per garantire lo sviluppo di soluzioni AI affidabili ed etiche. Questi framework di governance sono...

LLMOps: Potenziare l’IA Responsabile con Python

In un panorama ipercompetitivo, non è sufficiente distribuire modelli di linguaggio di grandi dimensioni (LLM); è necessario un robusto framework LLMOps per garantire affidabilità e conformità...