Aspettando la Tempesta: Le Tensioni sul Codice di Pratica GPAI

Il silenzio prima della tempesta: Bruxelles attende la terza bozza del Codice di Pratica GPAI

Un’anticipazione avvolge come una nebbia il settore dell’IA a Bruxelles, poiché non è ancora stata pubblicata la terza bozza delle linee guida per i fornitori di sistemi GPAI come ChatGPT, originariamente prevista per la settimana del 17 febbraio.

Le tensioni sono elevate, con le grandi aziende tecnologiche che minacciano di non firmare il Codice di Pratica (CoP), la Commissione che spinge per una semplificazione, e alcune organizzazioni della società civile che si sentono così ignorate da voler ritirarsi per non legittimare il processo.

“La vera battaglia probabilmente inizierà una volta pubblicata la terza bozza,” ha dichiarato un rappresentante della società civile.

Una lotta globale, versione tre

Non è la prima volta che industria, società civile, organizzazioni di diritti e regolatori si scontrano su come regolamentare il GPAI.

L’AI Act è stato concepito prima dell’avvento di ChatGPT, senza disposizioni specifiche per i modelli GPAI, ora così diffusi. La legge si è concentrata su casi d’uso specifici, ma i modelli GPAI sono flessibili, il che significa che uno stesso modello potrebbe essere integrato in più casi d’uso, presentando potenziali rischi sistemici.

Dopo l’introduzione delle regole GPAI, una coalizione franco-tedesco-italiana, guidata dalla sfidante francese Mistral AI, è quasi riuscita a rimuoverle per timore che impedissero all’UE di competere.

Non è stata ben accolta quando Mistral ha successivamente annunciato la sua partnership con Microsoft, sollevando interrogativi su chi realmente avrebbe beneficiato da requisiti GPAI più deboli. Tuttavia, Mistral è ancora vista come il principale contenditore europeo nel campo del GPAI.

Il cronoprogramma

La terza bozza è l’ultima prima che una versione finale del Codice venga circolata, prevista per il 2 maggio. Dopo di che, il Codice sarà approvato dall’Ufficio IA della Commissione, dagli stati membri tramite il comitato IA e poi implementato dalla Commissione entro il 2 agosto.

Il cronoprogramma della Commissione ora indica “febbraio-marzo” per la terza bozza, con incontri di gruppi di lavoro, riunioni del sottogruppo del comitato IA e plenarie riassuntive previste per “marzo”, con una riunione del comitato IA l’11 del mese.

Giovedì, l’Ufficio IA ha informato i partecipanti che un workshop intitolato “Prospettive della società civile sul Codice di Pratica” previsto per il 7 marzo sarà riprogrammato per consentire tempo sufficiente per esaminare la bozza e fornire un feedback significativo.

Linee di battaglia

Tre principali linee di battaglia sono emerse durante il processo: test di terze parti obbligatori, la tassonomia del rischio del Codice e questioni relative a trasparenza del copyright.

Una coalizione focalizzata sulla sicurezza dell’IA sostiene che nessuna reale conformità è garantita se le aziende effettuano i propri test.

Una coalizione incentrata sui diritti umani afferma che i rischi per i diritti fondamentali vengono ridimensionati nel Codice, specialmente a causa della mancanza di inclusione nella tassonomia del rischio. Sostengono il test di terze parti, ma si preoccupano di altri rischi diversi da quelli di sicurezza.

I titolari di diritti lottano per l’applicazione rigorosa delle norme sul copyright e richiedono che le aziende GPAI pubblichino riassunti dettagliati dei loro dati di addestramento.

Il settore sostiene che i requisiti di test di terze parti e di copyright superano quelli previsti dall’AI Act e che il CoP è solo uno strumento di conformità per seguire la legge. Temono che la tassonomia del rischio sia troppo vaga e non ben fondata su rischi documentati nel mondo reale.

Le preoccupazioni vengono spesso sostenute dai gruppi di lobbying delle grandi aziende tecnologiche statunitensi a Bruxelles, mentre un cluster di IA polacco ha recentemente inviato una lettera al capo della tecnologia dell’UE, Henna Virkkunen, avvertendo che l’UE “rischia di creare un mostro burocratico” con l’attuale CoP.

Tutte le parti stanno lamentando di non essere sufficientemente ascoltate nel processo di redazione, con l’industria che si lamenta che i fornitori GPAI rappresentano solo il 5% degli stakeholder coinvolti, mentre altri affermano che l’industria è troppo influente.

13 esperti, principalmente accademici, stanno cercando di bilanciare queste preoccupazioni, portando anche le proprie opinioni. La Commissione e gli stati membri hanno l’ultima parola. E le aziende possono decidere di avvalersi di avvocati anziché firmare il Codice. Meta ha già dichiarato che non firmerà nella forma attuale del Codice, e Google minaccia di fare lo stesso.

La terza bozza del CoP, attesa a breve, modellerà la prossima ondata di controversie.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...