Aspettando la Tempesta: Le Tensioni sul Codice di Pratica GPAI

Il silenzio prima della tempesta: Bruxelles attende la terza bozza del Codice di Pratica GPAI

Un’anticipazione avvolge come una nebbia il settore dell’IA a Bruxelles, poiché non è ancora stata pubblicata la terza bozza delle linee guida per i fornitori di sistemi GPAI come ChatGPT, originariamente prevista per la settimana del 17 febbraio.

Le tensioni sono elevate, con le grandi aziende tecnologiche che minacciano di non firmare il Codice di Pratica (CoP), la Commissione che spinge per una semplificazione, e alcune organizzazioni della società civile che si sentono così ignorate da voler ritirarsi per non legittimare il processo.

“La vera battaglia probabilmente inizierà una volta pubblicata la terza bozza,” ha dichiarato un rappresentante della società civile.

Una lotta globale, versione tre

Non è la prima volta che industria, società civile, organizzazioni di diritti e regolatori si scontrano su come regolamentare il GPAI.

L’AI Act è stato concepito prima dell’avvento di ChatGPT, senza disposizioni specifiche per i modelli GPAI, ora così diffusi. La legge si è concentrata su casi d’uso specifici, ma i modelli GPAI sono flessibili, il che significa che uno stesso modello potrebbe essere integrato in più casi d’uso, presentando potenziali rischi sistemici.

Dopo l’introduzione delle regole GPAI, una coalizione franco-tedesco-italiana, guidata dalla sfidante francese Mistral AI, è quasi riuscita a rimuoverle per timore che impedissero all’UE di competere.

Non è stata ben accolta quando Mistral ha successivamente annunciato la sua partnership con Microsoft, sollevando interrogativi su chi realmente avrebbe beneficiato da requisiti GPAI più deboli. Tuttavia, Mistral è ancora vista come il principale contenditore europeo nel campo del GPAI.

Il cronoprogramma

La terza bozza è l’ultima prima che una versione finale del Codice venga circolata, prevista per il 2 maggio. Dopo di che, il Codice sarà approvato dall’Ufficio IA della Commissione, dagli stati membri tramite il comitato IA e poi implementato dalla Commissione entro il 2 agosto.

Il cronoprogramma della Commissione ora indica “febbraio-marzo” per la terza bozza, con incontri di gruppi di lavoro, riunioni del sottogruppo del comitato IA e plenarie riassuntive previste per “marzo”, con una riunione del comitato IA l’11 del mese.

Giovedì, l’Ufficio IA ha informato i partecipanti che un workshop intitolato “Prospettive della società civile sul Codice di Pratica” previsto per il 7 marzo sarà riprogrammato per consentire tempo sufficiente per esaminare la bozza e fornire un feedback significativo.

Linee di battaglia

Tre principali linee di battaglia sono emerse durante il processo: test di terze parti obbligatori, la tassonomia del rischio del Codice e questioni relative a trasparenza del copyright.

Una coalizione focalizzata sulla sicurezza dell’IA sostiene che nessuna reale conformità è garantita se le aziende effettuano i propri test.

Una coalizione incentrata sui diritti umani afferma che i rischi per i diritti fondamentali vengono ridimensionati nel Codice, specialmente a causa della mancanza di inclusione nella tassonomia del rischio. Sostengono il test di terze parti, ma si preoccupano di altri rischi diversi da quelli di sicurezza.

I titolari di diritti lottano per l’applicazione rigorosa delle norme sul copyright e richiedono che le aziende GPAI pubblichino riassunti dettagliati dei loro dati di addestramento.

Il settore sostiene che i requisiti di test di terze parti e di copyright superano quelli previsti dall’AI Act e che il CoP è solo uno strumento di conformità per seguire la legge. Temono che la tassonomia del rischio sia troppo vaga e non ben fondata su rischi documentati nel mondo reale.

Le preoccupazioni vengono spesso sostenute dai gruppi di lobbying delle grandi aziende tecnologiche statunitensi a Bruxelles, mentre un cluster di IA polacco ha recentemente inviato una lettera al capo della tecnologia dell’UE, Henna Virkkunen, avvertendo che l’UE “rischia di creare un mostro burocratico” con l’attuale CoP.

Tutte le parti stanno lamentando di non essere sufficientemente ascoltate nel processo di redazione, con l’industria che si lamenta che i fornitori GPAI rappresentano solo il 5% degli stakeholder coinvolti, mentre altri affermano che l’industria è troppo influente.

13 esperti, principalmente accademici, stanno cercando di bilanciare queste preoccupazioni, portando anche le proprie opinioni. La Commissione e gli stati membri hanno l’ultima parola. E le aziende possono decidere di avvalersi di avvocati anziché firmare il Codice. Meta ha già dichiarato che non firmerà nella forma attuale del Codice, e Google minaccia di fare lo stesso.

La terza bozza del CoP, attesa a breve, modellerà la prossima ondata di controversie.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...