Le aziende statunitensi e la vulnerabilità del codice etique AI dell’UE

Come le aziende statunitensi stanno indebolendo il Codice di Condotta dell’AI dell’UE

Il Codice di Condotta per l’Intelligenza Artificiale (AI) dell’Unione Europea rappresenta il primo quadro completo per la regolamentazione dell’AI. Per i modelli più potenti, noti come AI di uso generale (GPAI), è attualmente in fase di redazione un Codice di Condotta per semplificare la conformità di un numero ristretto di aziende leader nel settore dell’AI. Questo Codice è sviluppato da quattro gruppi di lavoro presieduti da esperti, coinvolgendo quasi 1.000 stakeholder provenienti dall’industria, dalla società civile e dal mondo accademico, seguendo un processo di redazione iterativo iniziato a settembre 2024. Il testo finale dovrebbe essere pubblicato entro agosto 2025.

Con l’avvicinarsi della fine del processo, la Commissione Europea ha offerto accesso privilegiato a un numero ristretto di aziende statunitensi che promuovono un Codice indebolito. Questo non solo mina la legittimità del processo, ma contraddice anche l’intento del Codice, che è quello di servire gli interessi dei cittadini europei. Inoltre, tale lobbying intensivo contraddice le stesse affermazioni delle aziende di agire nell’interesse pubblico.

Un processo inclusivo, ma per chi?

Il Codice di Condotta è stato redatto in un processo senza precedenti, sotto la guida di 13 scienziati di spicco e coinvolgendo oltre 1.000 stakeholder. Sin dall’inizio, i fornitori di GPAI hanno avuto un posto speciale al tavolo. Tuttavia, mentre il Codice si avvicina alla conclusione, la domanda chiave è se le poche aziende leader statunitensi, che hanno avuto accesso privilegiato attraverso incontri bilaterali e hanno ottenuto l’accesso esclusivo all’ultima versione del testo, accettino che le regole per GPAI siano una questione di interesse pubblico e non possano essere stabilite solo da loro. Premendo sulla Commissione Europea affinché dia priorità agli interessi di un numero ristretto di aziende statunitensi rispetto alle prospettive di 1.000 stakeholder, queste aziende mettono a rischio l’intero processo e perdono credibilità come attori di interesse pubblico e buoni cittadini aziendali a livello mondiale.

In questo contesto, l’industria confonde erroneamente una regolamentazione debole con l’innovazione, cercando di beneficiare dell’ impulso recente della Commissione per posizionare l’UE come leader globale nell’AI. Questa logica è errata, come sottolineato da Arthur Mensch, CEO di Mistral AI. In un’intervista, ha affermato che il problema principale in Europa non è la regolamentazione, ma piuttosto la frammentazione del mercato e la mancanza di adozione dell’AI. Ma non solo le aziende statunitensi stanno facendo pressione per un Codice indebolito; il regolamento sull’AI ha anche attirato critiche da parte del presidente statunitense.

Il Codice è diventato eccessivamente politicizzato

Nel tentativo di ritrarre una posizione favorevole all’innovazione e calmare le tensioni transatlantiche, alcuni nell’UE hanno reso le firme delle grandi aziende tecnologiche la valuta del successo del Codice. Tale logica è dannosa per l’obiettivo reale del Codice, poiché consente ai fornitori di sfruttare la non firma come una tattica di pressione per orientare e diluire il Codice. Inoltre, le aziende statunitensi hanno usato la non firma per segnalare il loro sostegno al governo statunitense, che è diventato sempre più contrario alla regolamentazione digitale europea.

Ciò che accade quando i fornitori non aderiscono al Codice? Devono optare per mezzi alternativi di conformità, utilizzando quadri di valutazione comparabili o procedure di mitigazione, che devono dimostrare di essere altrettanto efficaci nel raggiungere i requisiti del Regolamento AI. Tuttavia, tale decisione comporterà un costo. Mentre il Codice rappresenta un modo semplice per aderire al Regolamento AI, scegliere mezzi alternativi richiede sforzi estesi per valutare e supportare la loro sufficienza.

Strategia di lamentela, poi conformità

Una funzione fondamentale della regolamentazione è allineare meglio il comportamento delle aziende a scopo di lucro con l’interesse pubblico, stabilendo uno standard di cura. In risposta, le aziende spesso reagiscono con reazioni istintive, proclamando tali regole come inattuabili. Inizialmente, Google sosteneva di non poter gestire i takedown basati sul diritto all’oblio. Nel frattempo, ora rimuove senza problemi centinaia di migliaia di contenuti all’anno in risposta a richieste di cancellazione.

La Commissione Europea non deve cadere preda di tali tattiche di lobbying aziendale. Raramente un fornitore di modelli GPAI esprimerà entusiasmo per le nuove regole. Alcuni le considereranno eccessivamente prescrittive, mentre altri sosterranno che sono troppo vaghe. Ma invece di cedere, la Commissione deve garantire che il Codice rifletta l’intento del Regolamento AI, salvaguardando gli interessi e i diritti del popolo europeo.

Una volta che le nuove regole saranno in vigore, le aziende risponderanno innovando. Per GPAI, questo significherà investire in modelli più sicuri, trasparenti e affidabili. È probabile che i fornitori beneficeranno di questi investimenti nel medio termine. Con la creazione di uno standard di cura ragionevole, i rischi GPAI potrebbero diventare assicurabili.

Resistere alla pressione

La Commissione Europea non può ignorare il suo dovere di garantire che il Codice di Condotta onori lo spirito del Regolamento AI, come concordato dai co-legislatori. Questo significa proteggere i diritti dei cittadini europei e l’interesse pubblico.

Una delle innovazioni fondamentali del Codice è il suo processo di redazione inclusivo, che coinvolge oltre 1.000 stakeholder provenienti dal mondo accademico, dalla società civile e dal settore privato. Se vedono i loro sforzi e il loro impegno collassare a favore delle preferenze e dei profitti di un numero ristretto di aziende leader nell’AI, si arrecherà un danno significativo all’impegno civico e alla democrazia nell’UE.

Infine, la Commissione non deve sottovalutare la sua posizione: può adottare il Codice, potenzialmente in una versione più rigorosa, anche senza le firme delle aziende interessate. Ciò renderebbe le misure nel Codice il modo ufficiale per valutare la conformità GPAI al Regolamento AI.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...