Rivoluzione dell’IA: L’impatto di DeepSeek sulle normative europee

Regole dell’EU AI Act sui modelli GPAI sotto la revisione di DeepSeek

La recente emergenza dell’app AI cinese DeepSeek sta causando ai responsabili politici dell’UE di considerare modifiche all’ EU AI Act. Si prevede un aggiornamento di una misura soglia di potenza di calcolo specificata nel regolamento, con potenziali implicazioni per la regolamentazione di altri modelli di AI di uso generale (GPAI).

Modelli GPAI e come viene determinato il “rischio sistemico”

I modelli GPAI sono modelli di AI che possono svolgere un’ampia gamma di compiti e spesso formano la base di altri sistemi di AI. I modelli di linguaggio di grandi dimensioni (LLM) sono un esempio di modelli GPAI. Le regole specifiche per i fornitori di modelli GPAI sono stabilite nel Capitolo V dell’ AI Act e entreranno in vigore il 2 agosto 2025.

Le regole più severe sotto il Capitolo V si applicano ai fornitori di modelli GPAI “con rischio sistemico”. Comprendere se un modello GPAI sarà classificato come modello GPAI “con rischio sistemico” è un passo essenziale per gli sviluppatori di AI per comprendere i propri obblighi ai sensi dell’ AI Act, ma non è un processo semplice.

Il concetto di “rischio sistemico” è definito nell’atto. Significa “un rischio specifico alle capacità ad alto impatto dei modelli di AI di uso generale, che ha un impatto significativo sul mercato dell’UE a causa della loro portata o a causa di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, sicurezza, diritti fondamentali o sulla società nel suo insieme, che possono essere propagati su larga scala lungo la catena del valore”.

La rilevanza dei “FLOPS” e come DeepSeek cambia le cose

Le operazioni in virgola mobile, o FLOPS, sono una misura della potenza di calcolo. L’ Articolo 51(2) stabilisce che un modello GPAI sarà presumibilmente dotato di “capacità ad alto impatto” quando vengono utilizzati più di 10^25 FLOPS per addestrare il modello.

Le disposizioni dell’AI Act chiariscono che i fornitori di modelli GPAI devono sapere quando hanno superato la soglia FLOPS prima che lo sviluppo di tali modelli sia completato. Questa è una fase critica poiché “l’addestramento di modelli di AI di uso generale richiede una pianificazione considerevole, che include l’allocazione anticipata delle risorse di calcolo”.

Cosa possono aspettarsi i fornitori di modelli GPAI in futuro?

Rimane da vedere come la Commissione risponderà agli sviluppi attuali nel mercato e nella tecnologia. Le preoccupazioni sulla competitività dell’UE nel mercato globale sono state sollevate in rapporti come quello preparato per la Commissione da Mario Draghi, ex presidente della Banca Centrale Europea.

Il presidente della Commissione, Ursula von der Leyen, ha promesso di “ridurre la burocrazia” in relazione all’AI, con proposte per una “semplificazione” delle normative digitali dell’UE attese nei prossimi mesi.

In questo contesto, un aumento della soglia FLOPS per ridurre i “grandi numeri di modelli” che potrebbero essere presumibilmente classificati come GPAI con rischio sistemico sarebbe in linea con il movimento apparente per ridurre i fardelli normativi sull’AI nell’UE.

Regolamentazione a due livelli e codice di pratica GPAI

I fornitori di tutti i modelli GPAI devono affrontare obblighi di registrazione, trasparenza e copyright, soggetti a eccezioni applicabili ai fornitori di determinati modelli GPAI rilasciati sotto una licenza gratuita e open-source.

Le obbligazioni aggiuntive per i fornitori di modelli GPAI con rischio sistemico includono requisiti per:

  • eseguire la valutazione del modello, inclusi test avversariali, al fine di identificare e mitigare i rischi sistemici;
  • valutare e mitigare possibili rischi sistemici a livello dell’UE;
  • tenere traccia, documentare e segnalare, senza indugi, incidenti gravi e possibili misure correttive per affrontarli;
  • garantire un adeguato livello di protezione della sicurezza informatica per il modello e la sua infrastruttura fisica.

Il codice di pratica GPAI, attualmente nelle fasi finali di sviluppo, sarà uno strumento importante per aiutare i fornitori a conformarsi al regime dei modelli GPAI dell’AI Act.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...