Aspettando la Tempesta: Le Tensioni sul Codice di Pratica GPAI

Il silenzio prima della tempesta: Bruxelles attende la terza bozza del Codice di Pratica GPAI

Un’anticipazione avvolge come una nebbia il settore dell’IA a Bruxelles, poiché non è ancora stata pubblicata la terza bozza delle linee guida per i fornitori di sistemi GPAI come ChatGPT, originariamente prevista per la settimana del 17 febbraio.

Le tensioni sono elevate, con le grandi aziende tecnologiche che minacciano di non firmare il Codice di Pratica (CoP), la Commissione che spinge per una semplificazione, e alcune organizzazioni della società civile che si sentono così ignorate da voler ritirarsi per non legittimare il processo.

“La vera battaglia probabilmente inizierà una volta pubblicata la terza bozza,” ha dichiarato un rappresentante della società civile.

Una lotta globale, versione tre

Non è la prima volta che industria, società civile, organizzazioni di diritti e regolatori si scontrano su come regolamentare il GPAI.

L’AI Act è stato concepito prima dell’avvento di ChatGPT, senza disposizioni specifiche per i modelli GPAI, ora così diffusi. La legge si è concentrata su casi d’uso specifici, ma i modelli GPAI sono flessibili, il che significa che uno stesso modello potrebbe essere integrato in più casi d’uso, presentando potenziali rischi sistemici.

Dopo l’introduzione delle regole GPAI, una coalizione franco-tedesco-italiana, guidata dalla sfidante francese Mistral AI, è quasi riuscita a rimuoverle per timore che impedissero all’UE di competere.

Non è stata ben accolta quando Mistral ha successivamente annunciato la sua partnership con Microsoft, sollevando interrogativi su chi realmente avrebbe beneficiato da requisiti GPAI più deboli. Tuttavia, Mistral è ancora vista come il principale contenditore europeo nel campo del GPAI.

Il cronoprogramma

La terza bozza è l’ultima prima che una versione finale del Codice venga circolata, prevista per il 2 maggio. Dopo di che, il Codice sarà approvato dall’Ufficio IA della Commissione, dagli stati membri tramite il comitato IA e poi implementato dalla Commissione entro il 2 agosto.

Il cronoprogramma della Commissione ora indica “febbraio-marzo” per la terza bozza, con incontri di gruppi di lavoro, riunioni del sottogruppo del comitato IA e plenarie riassuntive previste per “marzo”, con una riunione del comitato IA l’11 del mese.

Giovedì, l’Ufficio IA ha informato i partecipanti che un workshop intitolato “Prospettive della società civile sul Codice di Pratica” previsto per il 7 marzo sarà riprogrammato per consentire tempo sufficiente per esaminare la bozza e fornire un feedback significativo.

Linee di battaglia

Tre principali linee di battaglia sono emerse durante il processo: test di terze parti obbligatori, la tassonomia del rischio del Codice e questioni relative a trasparenza del copyright.

Una coalizione focalizzata sulla sicurezza dell’IA sostiene che nessuna reale conformità è garantita se le aziende effettuano i propri test.

Una coalizione incentrata sui diritti umani afferma che i rischi per i diritti fondamentali vengono ridimensionati nel Codice, specialmente a causa della mancanza di inclusione nella tassonomia del rischio. Sostengono il test di terze parti, ma si preoccupano di altri rischi diversi da quelli di sicurezza.

I titolari di diritti lottano per l’applicazione rigorosa delle norme sul copyright e richiedono che le aziende GPAI pubblichino riassunti dettagliati dei loro dati di addestramento.

Il settore sostiene che i requisiti di test di terze parti e di copyright superano quelli previsti dall’AI Act e che il CoP è solo uno strumento di conformità per seguire la legge. Temono che la tassonomia del rischio sia troppo vaga e non ben fondata su rischi documentati nel mondo reale.

Le preoccupazioni vengono spesso sostenute dai gruppi di lobbying delle grandi aziende tecnologiche statunitensi a Bruxelles, mentre un cluster di IA polacco ha recentemente inviato una lettera al capo della tecnologia dell’UE, Henna Virkkunen, avvertendo che l’UE “rischia di creare un mostro burocratico” con l’attuale CoP.

Tutte le parti stanno lamentando di non essere sufficientemente ascoltate nel processo di redazione, con l’industria che si lamenta che i fornitori GPAI rappresentano solo il 5% degli stakeholder coinvolti, mentre altri affermano che l’industria è troppo influente.

13 esperti, principalmente accademici, stanno cercando di bilanciare queste preoccupazioni, portando anche le proprie opinioni. La Commissione e gli stati membri hanno l’ultima parola. E le aziende possono decidere di avvalersi di avvocati anziché firmare il Codice. Meta ha già dichiarato che non firmerà nella forma attuale del Codice, e Google minaccia di fare lo stesso.

La terza bozza del CoP, attesa a breve, modellerà la prossima ondata di controversie.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...