Le aziende statunitensi e la vulnerabilità del codice etique AI dell’UE

Come le aziende statunitensi stanno indebolendo il Codice di Condotta dell’AI dell’UE

Il Codice di Condotta per l’Intelligenza Artificiale (AI) dell’Unione Europea rappresenta il primo quadro completo per la regolamentazione dell’AI. Per i modelli più potenti, noti come AI di uso generale (GPAI), è attualmente in fase di redazione un Codice di Condotta per semplificare la conformità di un numero ristretto di aziende leader nel settore dell’AI. Questo Codice è sviluppato da quattro gruppi di lavoro presieduti da esperti, coinvolgendo quasi 1.000 stakeholder provenienti dall’industria, dalla società civile e dal mondo accademico, seguendo un processo di redazione iterativo iniziato a settembre 2024. Il testo finale dovrebbe essere pubblicato entro agosto 2025.

Con l’avvicinarsi della fine del processo, la Commissione Europea ha offerto accesso privilegiato a un numero ristretto di aziende statunitensi che promuovono un Codice indebolito. Questo non solo mina la legittimità del processo, ma contraddice anche l’intento del Codice, che è quello di servire gli interessi dei cittadini europei. Inoltre, tale lobbying intensivo contraddice le stesse affermazioni delle aziende di agire nell’interesse pubblico.

Un processo inclusivo, ma per chi?

Il Codice di Condotta è stato redatto in un processo senza precedenti, sotto la guida di 13 scienziati di spicco e coinvolgendo oltre 1.000 stakeholder. Sin dall’inizio, i fornitori di GPAI hanno avuto un posto speciale al tavolo. Tuttavia, mentre il Codice si avvicina alla conclusione, la domanda chiave è se le poche aziende leader statunitensi, che hanno avuto accesso privilegiato attraverso incontri bilaterali e hanno ottenuto l’accesso esclusivo all’ultima versione del testo, accettino che le regole per GPAI siano una questione di interesse pubblico e non possano essere stabilite solo da loro. Premendo sulla Commissione Europea affinché dia priorità agli interessi di un numero ristretto di aziende statunitensi rispetto alle prospettive di 1.000 stakeholder, queste aziende mettono a rischio l’intero processo e perdono credibilità come attori di interesse pubblico e buoni cittadini aziendali a livello mondiale.

In questo contesto, l’industria confonde erroneamente una regolamentazione debole con l’innovazione, cercando di beneficiare dell’ impulso recente della Commissione per posizionare l’UE come leader globale nell’AI. Questa logica è errata, come sottolineato da Arthur Mensch, CEO di Mistral AI. In un’intervista, ha affermato che il problema principale in Europa non è la regolamentazione, ma piuttosto la frammentazione del mercato e la mancanza di adozione dell’AI. Ma non solo le aziende statunitensi stanno facendo pressione per un Codice indebolito; il regolamento sull’AI ha anche attirato critiche da parte del presidente statunitense.

Il Codice è diventato eccessivamente politicizzato

Nel tentativo di ritrarre una posizione favorevole all’innovazione e calmare le tensioni transatlantiche, alcuni nell’UE hanno reso le firme delle grandi aziende tecnologiche la valuta del successo del Codice. Tale logica è dannosa per l’obiettivo reale del Codice, poiché consente ai fornitori di sfruttare la non firma come una tattica di pressione per orientare e diluire il Codice. Inoltre, le aziende statunitensi hanno usato la non firma per segnalare il loro sostegno al governo statunitense, che è diventato sempre più contrario alla regolamentazione digitale europea.

Ciò che accade quando i fornitori non aderiscono al Codice? Devono optare per mezzi alternativi di conformità, utilizzando quadri di valutazione comparabili o procedure di mitigazione, che devono dimostrare di essere altrettanto efficaci nel raggiungere i requisiti del Regolamento AI. Tuttavia, tale decisione comporterà un costo. Mentre il Codice rappresenta un modo semplice per aderire al Regolamento AI, scegliere mezzi alternativi richiede sforzi estesi per valutare e supportare la loro sufficienza.

Strategia di lamentela, poi conformità

Una funzione fondamentale della regolamentazione è allineare meglio il comportamento delle aziende a scopo di lucro con l’interesse pubblico, stabilendo uno standard di cura. In risposta, le aziende spesso reagiscono con reazioni istintive, proclamando tali regole come inattuabili. Inizialmente, Google sosteneva di non poter gestire i takedown basati sul diritto all’oblio. Nel frattempo, ora rimuove senza problemi centinaia di migliaia di contenuti all’anno in risposta a richieste di cancellazione.

La Commissione Europea non deve cadere preda di tali tattiche di lobbying aziendale. Raramente un fornitore di modelli GPAI esprimerà entusiasmo per le nuove regole. Alcuni le considereranno eccessivamente prescrittive, mentre altri sosterranno che sono troppo vaghe. Ma invece di cedere, la Commissione deve garantire che il Codice rifletta l’intento del Regolamento AI, salvaguardando gli interessi e i diritti del popolo europeo.

Una volta che le nuove regole saranno in vigore, le aziende risponderanno innovando. Per GPAI, questo significherà investire in modelli più sicuri, trasparenti e affidabili. È probabile che i fornitori beneficeranno di questi investimenti nel medio termine. Con la creazione di uno standard di cura ragionevole, i rischi GPAI potrebbero diventare assicurabili.

Resistere alla pressione

La Commissione Europea non può ignorare il suo dovere di garantire che il Codice di Condotta onori lo spirito del Regolamento AI, come concordato dai co-legislatori. Questo significa proteggere i diritti dei cittadini europei e l’interesse pubblico.

Una delle innovazioni fondamentali del Codice è il suo processo di redazione inclusivo, che coinvolge oltre 1.000 stakeholder provenienti dal mondo accademico, dalla società civile e dal settore privato. Se vedono i loro sforzi e il loro impegno collassare a favore delle preferenze e dei profitti di un numero ristretto di aziende leader nell’AI, si arrecherà un danno significativo all’impegno civico e alla democrazia nell’UE.

Infine, la Commissione non deve sottovalutare la sua posizione: può adottare il Codice, potenzialmente in una versione più rigorosa, anche senza le firme delle aziende interessate. Ciò renderebbe le misure nel Codice il modo ufficiale per valutare la conformità GPAI al Regolamento AI.

More Insights

Opportunità mancate per l’AI: il G7 e la governance globale

I leader del G7 si sono riuniti in Alberta, Canada, ma la questione della governance dell'intelligenza artificiale è stata praticamente assente dai dibattiti. Questa omissione è particolarmente...

Intelligenza Artificiale: L’Africa Riscopre la Sovranità

I leader africani hanno chiesto azioni urgenti per costruire sistemi di intelligenza artificiale sovrani ed etici, adattati alle esigenze locali. È fondamentale garantire che l'IA supporti la...

Regolamenti AI: Le Sfide di Compliance e Innovazione

Con lo sviluppo dell'IA in tutto il mondo, diventa sempre più difficile applicare regolamenti efficaci. Le aziende tecnologiche multinazionali devono affrontare sfide complesse a causa della diversità...

Il Futuro dell’Intelligenza Artificiale in Cina: Un Percorso Unico

La competizione tra Stati Uniti e Cina nell'intelligenza artificiale è considerata la rivalità tecnologica definitoria del nostro tempo. Cina e Stati Uniti potrebbero sviluppare "varietà" diverse di...

AI e Finanza: Sfide e Opportunità di Compliance

Un nuovo sondaggio di Smarsh ha rivelato che, mentre gli strumenti di intelligenza artificiale vengono rapidamente adottati nei servizi finanziari del Regno Unito, molti dipendenti rimangono...

Etica dell’IA: le nuove sfide nella rivalità USA-Cina

Con l'approfondirsi della rivalità tecnologica tra Stati Uniti e Cina, un'agenzia delle Nazioni Unite sta spingendo per standard globali sull'etica dell'IA. UNESCO ha tenuto il suo terzo Forum Globale...

Sicurezza e AI: Adattarsi al Regolamento UE

Il DSPM gioca un ruolo fondamentale nell'aiutare le organizzazioni a conformarsi ai requisiti rigorosi del Regolamento sull'IA dell'UE, garantendo una distribuzione sicura dell'IA e la sicurezza dei...

Legge contro l’IA avversaria: la nuova frontiera della sicurezza nazionale

Un gruppo bipartisan di legislatori statunitensi ha introdotto il "No Adversarial AI Act", che mira a vietare l'uso di strumenti di intelligenza artificiale sviluppati in nazioni avversarie come Cina...

Personalizza l’IA responsabile con i nuovi livelli di sicurezza in Amazon Bedrock Guardrails

Amazon Bedrock Guardrails fornisce salvaguardie configurabili per costruire applicazioni di intelligenza artificiale generativa affidabili su larga scala. Con i nuovi livelli di salvaguardia, le...