Rivoluzione dell’IA: L’impatto di DeepSeek sulle normative europee

Regole dell’EU AI Act sui modelli GPAI sotto la revisione di DeepSeek

La recente emergenza dell’app AI cinese DeepSeek sta causando ai responsabili politici dell’UE di considerare modifiche all’ EU AI Act. Si prevede un aggiornamento di una misura soglia di potenza di calcolo specificata nel regolamento, con potenziali implicazioni per la regolamentazione di altri modelli di AI di uso generale (GPAI).

Modelli GPAI e come viene determinato il “rischio sistemico”

I modelli GPAI sono modelli di AI che possono svolgere un’ampia gamma di compiti e spesso formano la base di altri sistemi di AI. I modelli di linguaggio di grandi dimensioni (LLM) sono un esempio di modelli GPAI. Le regole specifiche per i fornitori di modelli GPAI sono stabilite nel Capitolo V dell’ AI Act e entreranno in vigore il 2 agosto 2025.

Le regole più severe sotto il Capitolo V si applicano ai fornitori di modelli GPAI “con rischio sistemico”. Comprendere se un modello GPAI sarà classificato come modello GPAI “con rischio sistemico” è un passo essenziale per gli sviluppatori di AI per comprendere i propri obblighi ai sensi dell’ AI Act, ma non è un processo semplice.

Il concetto di “rischio sistemico” è definito nell’atto. Significa “un rischio specifico alle capacità ad alto impatto dei modelli di AI di uso generale, che ha un impatto significativo sul mercato dell’UE a causa della loro portata o a causa di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, sicurezza, diritti fondamentali o sulla società nel suo insieme, che possono essere propagati su larga scala lungo la catena del valore”.

La rilevanza dei “FLOPS” e come DeepSeek cambia le cose

Le operazioni in virgola mobile, o FLOPS, sono una misura della potenza di calcolo. L’ Articolo 51(2) stabilisce che un modello GPAI sarà presumibilmente dotato di “capacità ad alto impatto” quando vengono utilizzati più di 10^25 FLOPS per addestrare il modello.

Le disposizioni dell’AI Act chiariscono che i fornitori di modelli GPAI devono sapere quando hanno superato la soglia FLOPS prima che lo sviluppo di tali modelli sia completato. Questa è una fase critica poiché “l’addestramento di modelli di AI di uso generale richiede una pianificazione considerevole, che include l’allocazione anticipata delle risorse di calcolo”.

Cosa possono aspettarsi i fornitori di modelli GPAI in futuro?

Rimane da vedere come la Commissione risponderà agli sviluppi attuali nel mercato e nella tecnologia. Le preoccupazioni sulla competitività dell’UE nel mercato globale sono state sollevate in rapporti come quello preparato per la Commissione da Mario Draghi, ex presidente della Banca Centrale Europea.

Il presidente della Commissione, Ursula von der Leyen, ha promesso di “ridurre la burocrazia” in relazione all’AI, con proposte per una “semplificazione” delle normative digitali dell’UE attese nei prossimi mesi.

In questo contesto, un aumento della soglia FLOPS per ridurre i “grandi numeri di modelli” che potrebbero essere presumibilmente classificati come GPAI con rischio sistemico sarebbe in linea con il movimento apparente per ridurre i fardelli normativi sull’AI nell’UE.

Regolamentazione a due livelli e codice di pratica GPAI

I fornitori di tutti i modelli GPAI devono affrontare obblighi di registrazione, trasparenza e copyright, soggetti a eccezioni applicabili ai fornitori di determinati modelli GPAI rilasciati sotto una licenza gratuita e open-source.

Le obbligazioni aggiuntive per i fornitori di modelli GPAI con rischio sistemico includono requisiti per:

  • eseguire la valutazione del modello, inclusi test avversariali, al fine di identificare e mitigare i rischi sistemici;
  • valutare e mitigare possibili rischi sistemici a livello dell’UE;
  • tenere traccia, documentare e segnalare, senza indugi, incidenti gravi e possibili misure correttive per affrontarli;
  • garantire un adeguato livello di protezione della sicurezza informatica per il modello e la sua infrastruttura fisica.

Il codice di pratica GPAI, attualmente nelle fasi finali di sviluppo, sarà uno strumento importante per aiutare i fornitori a conformarsi al regime dei modelli GPAI dell’AI Act.

More Insights

Fiducia e Rischio nell’Era dell’AI

Per i marketer, l'IA promette un salto in produttività, ma solo se guidata da una strategia chiara e supervisione umana. La questione non è se utilizzare l'IA, ma come usarla in modo responsabile ed...

Governanza Cloud: Rilanciare l’Innovazione nell’Era dell’AI

Molti si concentrano sulle ultime innovazioni dell'IA, ma pochi prestano attenzione a un gap critico: i modelli di governance del cloud obsoleti. Questi modelli non sono stati costruiti per il ritmo...

Guida pratica per un’adozione responsabile dell’IA

Con l'intelligenza artificiale (IA) che diventa una parte fondamentale delle moderne attività commerciali, la Confederazione dell'Industria Indiana (CII) ha pubblicato una nuova guida per aiutare i...

Automazione Intelligente e Sicurezza: Rischi e Opportunità nel DevSecOps

L'adozione rapida dell'automazione alimentata dall'IA nel DevSecOps introduce opportunità e sfide significative. Sebbene l'automazione possa migliorare l'efficienza, è fondamentale garantire che le...

Centro di Eccellenza per l’Intelligenza Artificiale: La Nuova Frontiera del Diritto

In un importante sviluppo che pone l'India in prima linea nel dibattito globale sulla regolamentazione dell'intelligenza artificiale (AI), è stato annunciato l'istituzione del Centro Cyril Shroff per...

Politica AI: Semplificare la Governance per le Agenzie Pubbliche

Darwin ha annunciato il lancio del suo AI Policy Wizard, uno strumento gratuito e interattivo progettato per aiutare i governi locali e le agenzie pubbliche a creare politiche AI pratiche e conformi...

Riconquistare la Fiducia nell’Intelligenza Artificiale con la Governance

Le minacce poco chiare e il comportamento imprevedibile complicano la fiducia globale nell'IA. È essenziale utilizzare misure di governance come il Regolamento sull'IA dell'UE per stabilire una...

Cultura e AI: Costruire Fiducia nel Futuro Tecnologico

Questo rapporto esamina le soluzioni che enfatizzano gli accordi collaborativi e le iniziative interorganizzative per creare un input diversificato di idee. È fondamentale che la governance dell'IA...

La conformità al copyright nell’era dell’IA generativa

Una delle sfide principali nella formazione dei modelli di intelligenza artificiale generativa è garantire la conformità alle leggi sul copyright. L'AI Act dell'UE sottolinea la necessità di...