Rivoluzione dell’IA: L’impatto di DeepSeek sulle normative europee

Regole dell’EU AI Act sui modelli GPAI sotto la revisione di DeepSeek

La recente emergenza dell’app AI cinese DeepSeek sta causando ai responsabili politici dell’UE di considerare modifiche all’ EU AI Act. Si prevede un aggiornamento di una misura soglia di potenza di calcolo specificata nel regolamento, con potenziali implicazioni per la regolamentazione di altri modelli di AI di uso generale (GPAI).

Modelli GPAI e come viene determinato il “rischio sistemico”

I modelli GPAI sono modelli di AI che possono svolgere un’ampia gamma di compiti e spesso formano la base di altri sistemi di AI. I modelli di linguaggio di grandi dimensioni (LLM) sono un esempio di modelli GPAI. Le regole specifiche per i fornitori di modelli GPAI sono stabilite nel Capitolo V dell’ AI Act e entreranno in vigore il 2 agosto 2025.

Le regole più severe sotto il Capitolo V si applicano ai fornitori di modelli GPAI “con rischio sistemico”. Comprendere se un modello GPAI sarà classificato come modello GPAI “con rischio sistemico” è un passo essenziale per gli sviluppatori di AI per comprendere i propri obblighi ai sensi dell’ AI Act, ma non è un processo semplice.

Il concetto di “rischio sistemico” è definito nell’atto. Significa “un rischio specifico alle capacità ad alto impatto dei modelli di AI di uso generale, che ha un impatto significativo sul mercato dell’UE a causa della loro portata o a causa di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, sicurezza, diritti fondamentali o sulla società nel suo insieme, che possono essere propagati su larga scala lungo la catena del valore”.

La rilevanza dei “FLOPS” e come DeepSeek cambia le cose

Le operazioni in virgola mobile, o FLOPS, sono una misura della potenza di calcolo. L’ Articolo 51(2) stabilisce che un modello GPAI sarà presumibilmente dotato di “capacità ad alto impatto” quando vengono utilizzati più di 10^25 FLOPS per addestrare il modello.

Le disposizioni dell’AI Act chiariscono che i fornitori di modelli GPAI devono sapere quando hanno superato la soglia FLOPS prima che lo sviluppo di tali modelli sia completato. Questa è una fase critica poiché “l’addestramento di modelli di AI di uso generale richiede una pianificazione considerevole, che include l’allocazione anticipata delle risorse di calcolo”.

Cosa possono aspettarsi i fornitori di modelli GPAI in futuro?

Rimane da vedere come la Commissione risponderà agli sviluppi attuali nel mercato e nella tecnologia. Le preoccupazioni sulla competitività dell’UE nel mercato globale sono state sollevate in rapporti come quello preparato per la Commissione da Mario Draghi, ex presidente della Banca Centrale Europea.

Il presidente della Commissione, Ursula von der Leyen, ha promesso di “ridurre la burocrazia” in relazione all’AI, con proposte per una “semplificazione” delle normative digitali dell’UE attese nei prossimi mesi.

In questo contesto, un aumento della soglia FLOPS per ridurre i “grandi numeri di modelli” che potrebbero essere presumibilmente classificati come GPAI con rischio sistemico sarebbe in linea con il movimento apparente per ridurre i fardelli normativi sull’AI nell’UE.

Regolamentazione a due livelli e codice di pratica GPAI

I fornitori di tutti i modelli GPAI devono affrontare obblighi di registrazione, trasparenza e copyright, soggetti a eccezioni applicabili ai fornitori di determinati modelli GPAI rilasciati sotto una licenza gratuita e open-source.

Le obbligazioni aggiuntive per i fornitori di modelli GPAI con rischio sistemico includono requisiti per:

  • eseguire la valutazione del modello, inclusi test avversariali, al fine di identificare e mitigare i rischi sistemici;
  • valutare e mitigare possibili rischi sistemici a livello dell’UE;
  • tenere traccia, documentare e segnalare, senza indugi, incidenti gravi e possibili misure correttive per affrontarli;
  • garantire un adeguato livello di protezione della sicurezza informatica per il modello e la sua infrastruttura fisica.

Il codice di pratica GPAI, attualmente nelle fasi finali di sviluppo, sarà uno strumento importante per aiutare i fornitori a conformarsi al regime dei modelli GPAI dell’AI Act.

More Insights

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...

AI Sovrana: Il Futuro della Produzione Intelligente

Le nuvole AI sovrane offrono sia controllo che conformità, affrontando le crescenti preoccupazioni riguardo alla residenza dei dati e al rischio normativo. Per i fornitori di servizi gestiti, questa è...

Etica dell’IA: Progresso e Inclusività in Scozia

L'Allianza Scozzese per l'IA ha pubblicato il suo Rapporto di Impatto 2024/2025, evidenziando un anno di progressi nella promozione di un'intelligenza artificiale etica e inclusiva in Scozia. Il...

L’Urgenza del Regolamento sull’IA: Preparati al Cambiamento

L'annuncio della Commissione UE venerdì scorso che non ci sarà un ritardo nell'Atto sull'IA dell'UE ha suscitato reazioni contrastanti. È tempo di agire e ottenere alcuni fatti, poiché le scadenze di...

Affidabilità dei Modelli Linguistici nella Prospettiva della Legge AI dell’UE

Lo studio sistematico esamina la fiducia nei grandi modelli linguistici (LLM) alla luce del Regolamento sull'IA dell'UE, evidenziando le preoccupazioni relative all'affidabilità e ai principi di...

La pausa sull’AI Act dell’UE: opportunità o rischio?

Il 8 luglio 2025, la Commissione Europea ha ribadito il proprio impegno per rispettare il calendario dell'AI Act, nonostante le richieste di rinvio da parte di alcune aziende. Il Primo Ministro...

Controlli Trump sull’IA: Rischi e Opportunità nel Settore Tecnologico

L'amministrazione Trump si sta preparando a nuove restrizioni sulle esportazioni di chip AI verso Malesia e Thailandia, al fine di prevenire l'accesso della Cina a processori avanzati. Le nuove...

Governance AI: Fondamenti per un Futuro Etico

La governance dell'intelligenza artificiale e la governance dei dati sono diventate cruciali per garantire lo sviluppo di soluzioni AI affidabili ed etiche. Questi framework di governance sono...

LLMOps: Potenziare l’IA Responsabile con Python

In un panorama ipercompetitivo, non è sufficiente distribuire modelli di linguaggio di grandi dimensioni (LLM); è necessario un robusto framework LLMOps per garantire affidabilità e conformità...