Rivoluzione dell’IA: L’impatto di DeepSeek sulle normative europee

Regole dell’EU AI Act sui modelli GPAI sotto la revisione di DeepSeek

La recente emergenza dell’app AI cinese DeepSeek sta causando ai responsabili politici dell’UE di considerare modifiche all’ EU AI Act. Si prevede un aggiornamento di una misura soglia di potenza di calcolo specificata nel regolamento, con potenziali implicazioni per la regolamentazione di altri modelli di AI di uso generale (GPAI).

Modelli GPAI e come viene determinato il “rischio sistemico”

I modelli GPAI sono modelli di AI che possono svolgere un’ampia gamma di compiti e spesso formano la base di altri sistemi di AI. I modelli di linguaggio di grandi dimensioni (LLM) sono un esempio di modelli GPAI. Le regole specifiche per i fornitori di modelli GPAI sono stabilite nel Capitolo V dell’ AI Act e entreranno in vigore il 2 agosto 2025.

Le regole più severe sotto il Capitolo V si applicano ai fornitori di modelli GPAI “con rischio sistemico”. Comprendere se un modello GPAI sarà classificato come modello GPAI “con rischio sistemico” è un passo essenziale per gli sviluppatori di AI per comprendere i propri obblighi ai sensi dell’ AI Act, ma non è un processo semplice.

Il concetto di “rischio sistemico” è definito nell’atto. Significa “un rischio specifico alle capacità ad alto impatto dei modelli di AI di uso generale, che ha un impatto significativo sul mercato dell’UE a causa della loro portata o a causa di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, sicurezza, diritti fondamentali o sulla società nel suo insieme, che possono essere propagati su larga scala lungo la catena del valore”.

La rilevanza dei “FLOPS” e come DeepSeek cambia le cose

Le operazioni in virgola mobile, o FLOPS, sono una misura della potenza di calcolo. L’ Articolo 51(2) stabilisce che un modello GPAI sarà presumibilmente dotato di “capacità ad alto impatto” quando vengono utilizzati più di 10^25 FLOPS per addestrare il modello.

Le disposizioni dell’AI Act chiariscono che i fornitori di modelli GPAI devono sapere quando hanno superato la soglia FLOPS prima che lo sviluppo di tali modelli sia completato. Questa è una fase critica poiché “l’addestramento di modelli di AI di uso generale richiede una pianificazione considerevole, che include l’allocazione anticipata delle risorse di calcolo”.

Cosa possono aspettarsi i fornitori di modelli GPAI in futuro?

Rimane da vedere come la Commissione risponderà agli sviluppi attuali nel mercato e nella tecnologia. Le preoccupazioni sulla competitività dell’UE nel mercato globale sono state sollevate in rapporti come quello preparato per la Commissione da Mario Draghi, ex presidente della Banca Centrale Europea.

Il presidente della Commissione, Ursula von der Leyen, ha promesso di “ridurre la burocrazia” in relazione all’AI, con proposte per una “semplificazione” delle normative digitali dell’UE attese nei prossimi mesi.

In questo contesto, un aumento della soglia FLOPS per ridurre i “grandi numeri di modelli” che potrebbero essere presumibilmente classificati come GPAI con rischio sistemico sarebbe in linea con il movimento apparente per ridurre i fardelli normativi sull’AI nell’UE.

Regolamentazione a due livelli e codice di pratica GPAI

I fornitori di tutti i modelli GPAI devono affrontare obblighi di registrazione, trasparenza e copyright, soggetti a eccezioni applicabili ai fornitori di determinati modelli GPAI rilasciati sotto una licenza gratuita e open-source.

Le obbligazioni aggiuntive per i fornitori di modelli GPAI con rischio sistemico includono requisiti per:

  • eseguire la valutazione del modello, inclusi test avversariali, al fine di identificare e mitigare i rischi sistemici;
  • valutare e mitigare possibili rischi sistemici a livello dell’UE;
  • tenere traccia, documentare e segnalare, senza indugi, incidenti gravi e possibili misure correttive per affrontarli;
  • garantire un adeguato livello di protezione della sicurezza informatica per il modello e la sua infrastruttura fisica.

Il codice di pratica GPAI, attualmente nelle fasi finali di sviluppo, sarà uno strumento importante per aiutare i fornitori a conformarsi al regime dei modelli GPAI dell’AI Act.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...