Aspettando la Tempesta: Le Tensioni sul Codice di Pratica GPAI

Il silenzio prima della tempesta: Bruxelles attende la terza bozza del Codice di Pratica GPAI

Un’anticipazione avvolge come una nebbia il settore dell’IA a Bruxelles, poiché non è ancora stata pubblicata la terza bozza delle linee guida per i fornitori di sistemi GPAI come ChatGPT, originariamente prevista per la settimana del 17 febbraio.

Le tensioni sono elevate, con le grandi aziende tecnologiche che minacciano di non firmare il Codice di Pratica (CoP), la Commissione che spinge per una semplificazione, e alcune organizzazioni della società civile che si sentono così ignorate da voler ritirarsi per non legittimare il processo.

“La vera battaglia probabilmente inizierà una volta pubblicata la terza bozza,” ha dichiarato un rappresentante della società civile.

Una lotta globale, versione tre

Non è la prima volta che industria, società civile, organizzazioni di diritti e regolatori si scontrano su come regolamentare il GPAI.

L’AI Act è stato concepito prima dell’avvento di ChatGPT, senza disposizioni specifiche per i modelli GPAI, ora così diffusi. La legge si è concentrata su casi d’uso specifici, ma i modelli GPAI sono flessibili, il che significa che uno stesso modello potrebbe essere integrato in più casi d’uso, presentando potenziali rischi sistemici.

Dopo l’introduzione delle regole GPAI, una coalizione franco-tedesco-italiana, guidata dalla sfidante francese Mistral AI, è quasi riuscita a rimuoverle per timore che impedissero all’UE di competere.

Non è stata ben accolta quando Mistral ha successivamente annunciato la sua partnership con Microsoft, sollevando interrogativi su chi realmente avrebbe beneficiato da requisiti GPAI più deboli. Tuttavia, Mistral è ancora vista come il principale contenditore europeo nel campo del GPAI.

Il cronoprogramma

La terza bozza è l’ultima prima che una versione finale del Codice venga circolata, prevista per il 2 maggio. Dopo di che, il Codice sarà approvato dall’Ufficio IA della Commissione, dagli stati membri tramite il comitato IA e poi implementato dalla Commissione entro il 2 agosto.

Il cronoprogramma della Commissione ora indica “febbraio-marzo” per la terza bozza, con incontri di gruppi di lavoro, riunioni del sottogruppo del comitato IA e plenarie riassuntive previste per “marzo”, con una riunione del comitato IA l’11 del mese.

Giovedì, l’Ufficio IA ha informato i partecipanti che un workshop intitolato “Prospettive della società civile sul Codice di Pratica” previsto per il 7 marzo sarà riprogrammato per consentire tempo sufficiente per esaminare la bozza e fornire un feedback significativo.

Linee di battaglia

Tre principali linee di battaglia sono emerse durante il processo: test di terze parti obbligatori, la tassonomia del rischio del Codice e questioni relative a trasparenza del copyright.

Una coalizione focalizzata sulla sicurezza dell’IA sostiene che nessuna reale conformità è garantita se le aziende effettuano i propri test.

Una coalizione incentrata sui diritti umani afferma che i rischi per i diritti fondamentali vengono ridimensionati nel Codice, specialmente a causa della mancanza di inclusione nella tassonomia del rischio. Sostengono il test di terze parti, ma si preoccupano di altri rischi diversi da quelli di sicurezza.

I titolari di diritti lottano per l’applicazione rigorosa delle norme sul copyright e richiedono che le aziende GPAI pubblichino riassunti dettagliati dei loro dati di addestramento.

Il settore sostiene che i requisiti di test di terze parti e di copyright superano quelli previsti dall’AI Act e che il CoP è solo uno strumento di conformità per seguire la legge. Temono che la tassonomia del rischio sia troppo vaga e non ben fondata su rischi documentati nel mondo reale.

Le preoccupazioni vengono spesso sostenute dai gruppi di lobbying delle grandi aziende tecnologiche statunitensi a Bruxelles, mentre un cluster di IA polacco ha recentemente inviato una lettera al capo della tecnologia dell’UE, Henna Virkkunen, avvertendo che l’UE “rischia di creare un mostro burocratico” con l’attuale CoP.

Tutte le parti stanno lamentando di non essere sufficientemente ascoltate nel processo di redazione, con l’industria che si lamenta che i fornitori GPAI rappresentano solo il 5% degli stakeholder coinvolti, mentre altri affermano che l’industria è troppo influente.

13 esperti, principalmente accademici, stanno cercando di bilanciare queste preoccupazioni, portando anche le proprie opinioni. La Commissione e gli stati membri hanno l’ultima parola. E le aziende possono decidere di avvalersi di avvocati anziché firmare il Codice. Meta ha già dichiarato che non firmerà nella forma attuale del Codice, e Google minaccia di fare lo stesso.

La terza bozza del CoP, attesa a breve, modellerà la prossima ondata di controversie.

More Insights

Regolamentazione dell’IA: verso un futuro più sicuro nel settore assicurativo

Il Chartered Insurance Institute (CII) ha richiesto chiari quadri di responsabilità e una strategia di competenze a livello settoriale per guidare l'uso dell'intelligenza artificiale (AI) nei servizi...

Regolamentazione dell’IA nel settore MedTech in APAC

La regolamentazione dell'intelligenza artificiale (AI) nella regione Asia-Pacifico è ancora agli inizi, principalmente governata da normative esistenti progettate per altre tecnologie. Nonostante ciò...

Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Nel primo semestre del 2025, New York ha iniziato a regolare l'intelligenza artificiale (AI) a livello statale con l'introduzione di leggi per affrontare la discriminazione algoritmica, in particolare...

Gestire i Rischi dell’Intelligenza Artificiale: Un Approccio Strategico

L'articolo discute l'importanza della gestione dei rischi nell'intelligenza artificiale, evidenziando che il rischio AI può derivare da dati errati o da attacchi esterni. Utilizzare un framework di...

Comprendere l’Atto sull’Intelligenza Artificiale dell’UE

L'Unione Europea ha introdotto l'Artificial Intelligence Act (AI Act), una regolamentazione storica progettata per gestire i rischi e le opportunità delle tecnologie AI in Europa. Questo articolo...

Legge Fondamentale sull’IA in Corea: Un Nuovo Orizzonte Normativo

La Corea del Sud ha adottato la Legge di Base sull'Intelligenza Artificiale, diventando il primo mercato asiatico a stabilire un quadro normativo completo per l'IA. Questa legislazione avrà un impatto...

Intelligenza Artificiale e Regolamentazione: Preparati al Cambiamento

L'atto sull'IA dell'UE e il DORA stanno creando una nuova complessità per le entità finanziarie, richiedendo un approccio basato sul rischio. È fondamentale quantificare l'impatto finanziario delle...

Regolamentare l’IA: Sfide e Opportunità nell’Atlantico

L'intelligenza artificiale (IA) è diventata una delle forze tecnologiche più decisive del nostro tempo, con il potere di rimodellare le economie e le società. Questo capitolo esplora il momento...

Strategia Europea per l’Intelligenza Artificiale: Verso le Gigafabbriche

La Commissione Europea vuole ridurre le barriere per l'implementazione dell'intelligenza artificiale, promuovendo la costruzione di "gigafabbriche AI" per migliorare l'infrastruttura dei centri dati...