Aspettando la Tempesta: Le Tensioni sul Codice di Pratica GPAI

Il silenzio prima della tempesta: Bruxelles attende la terza bozza del Codice di Pratica GPAI

Un’anticipazione avvolge come una nebbia il settore dell’IA a Bruxelles, poiché non è ancora stata pubblicata la terza bozza delle linee guida per i fornitori di sistemi GPAI come ChatGPT, originariamente prevista per la settimana del 17 febbraio.

Le tensioni sono elevate, con le grandi aziende tecnologiche che minacciano di non firmare il Codice di Pratica (CoP), la Commissione che spinge per una semplificazione, e alcune organizzazioni della società civile che si sentono così ignorate da voler ritirarsi per non legittimare il processo.

“La vera battaglia probabilmente inizierà una volta pubblicata la terza bozza,” ha dichiarato un rappresentante della società civile.

Una lotta globale, versione tre

Non è la prima volta che industria, società civile, organizzazioni di diritti e regolatori si scontrano su come regolamentare il GPAI.

L’AI Act è stato concepito prima dell’avvento di ChatGPT, senza disposizioni specifiche per i modelli GPAI, ora così diffusi. La legge si è concentrata su casi d’uso specifici, ma i modelli GPAI sono flessibili, il che significa che uno stesso modello potrebbe essere integrato in più casi d’uso, presentando potenziali rischi sistemici.

Dopo l’introduzione delle regole GPAI, una coalizione franco-tedesco-italiana, guidata dalla sfidante francese Mistral AI, è quasi riuscita a rimuoverle per timore che impedissero all’UE di competere.

Non è stata ben accolta quando Mistral ha successivamente annunciato la sua partnership con Microsoft, sollevando interrogativi su chi realmente avrebbe beneficiato da requisiti GPAI più deboli. Tuttavia, Mistral è ancora vista come il principale contenditore europeo nel campo del GPAI.

Il cronoprogramma

La terza bozza è l’ultima prima che una versione finale del Codice venga circolata, prevista per il 2 maggio. Dopo di che, il Codice sarà approvato dall’Ufficio IA della Commissione, dagli stati membri tramite il comitato IA e poi implementato dalla Commissione entro il 2 agosto.

Il cronoprogramma della Commissione ora indica “febbraio-marzo” per la terza bozza, con incontri di gruppi di lavoro, riunioni del sottogruppo del comitato IA e plenarie riassuntive previste per “marzo”, con una riunione del comitato IA l’11 del mese.

Giovedì, l’Ufficio IA ha informato i partecipanti che un workshop intitolato “Prospettive della società civile sul Codice di Pratica” previsto per il 7 marzo sarà riprogrammato per consentire tempo sufficiente per esaminare la bozza e fornire un feedback significativo.

Linee di battaglia

Tre principali linee di battaglia sono emerse durante il processo: test di terze parti obbligatori, la tassonomia del rischio del Codice e questioni relative a trasparenza del copyright.

Una coalizione focalizzata sulla sicurezza dell’IA sostiene che nessuna reale conformità è garantita se le aziende effettuano i propri test.

Una coalizione incentrata sui diritti umani afferma che i rischi per i diritti fondamentali vengono ridimensionati nel Codice, specialmente a causa della mancanza di inclusione nella tassonomia del rischio. Sostengono il test di terze parti, ma si preoccupano di altri rischi diversi da quelli di sicurezza.

I titolari di diritti lottano per l’applicazione rigorosa delle norme sul copyright e richiedono che le aziende GPAI pubblichino riassunti dettagliati dei loro dati di addestramento.

Il settore sostiene che i requisiti di test di terze parti e di copyright superano quelli previsti dall’AI Act e che il CoP è solo uno strumento di conformità per seguire la legge. Temono che la tassonomia del rischio sia troppo vaga e non ben fondata su rischi documentati nel mondo reale.

Le preoccupazioni vengono spesso sostenute dai gruppi di lobbying delle grandi aziende tecnologiche statunitensi a Bruxelles, mentre un cluster di IA polacco ha recentemente inviato una lettera al capo della tecnologia dell’UE, Henna Virkkunen, avvertendo che l’UE “rischia di creare un mostro burocratico” con l’attuale CoP.

Tutte le parti stanno lamentando di non essere sufficientemente ascoltate nel processo di redazione, con l’industria che si lamenta che i fornitori GPAI rappresentano solo il 5% degli stakeholder coinvolti, mentre altri affermano che l’industria è troppo influente.

13 esperti, principalmente accademici, stanno cercando di bilanciare queste preoccupazioni, portando anche le proprie opinioni. La Commissione e gli stati membri hanno l’ultima parola. E le aziende possono decidere di avvalersi di avvocati anziché firmare il Codice. Meta ha già dichiarato che non firmerà nella forma attuale del Codice, e Google minaccia di fare lo stesso.

La terza bozza del CoP, attesa a breve, modellerà la prossima ondata di controversie.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...