Le aziende statunitensi e la vulnerabilità del codice etique AI dell’UE

Come le aziende statunitensi stanno indebolendo il Codice di Condotta dell’AI dell’UE

Il Codice di Condotta per l’Intelligenza Artificiale (AI) dell’Unione Europea rappresenta il primo quadro completo per la regolamentazione dell’AI. Per i modelli più potenti, noti come AI di uso generale (GPAI), è attualmente in fase di redazione un Codice di Condotta per semplificare la conformità di un numero ristretto di aziende leader nel settore dell’AI. Questo Codice è sviluppato da quattro gruppi di lavoro presieduti da esperti, coinvolgendo quasi 1.000 stakeholder provenienti dall’industria, dalla società civile e dal mondo accademico, seguendo un processo di redazione iterativo iniziato a settembre 2024. Il testo finale dovrebbe essere pubblicato entro agosto 2025.

Con l’avvicinarsi della fine del processo, la Commissione Europea ha offerto accesso privilegiato a un numero ristretto di aziende statunitensi che promuovono un Codice indebolito. Questo non solo mina la legittimità del processo, ma contraddice anche l’intento del Codice, che è quello di servire gli interessi dei cittadini europei. Inoltre, tale lobbying intensivo contraddice le stesse affermazioni delle aziende di agire nell’interesse pubblico.

Un processo inclusivo, ma per chi?

Il Codice di Condotta è stato redatto in un processo senza precedenti, sotto la guida di 13 scienziati di spicco e coinvolgendo oltre 1.000 stakeholder. Sin dall’inizio, i fornitori di GPAI hanno avuto un posto speciale al tavolo. Tuttavia, mentre il Codice si avvicina alla conclusione, la domanda chiave è se le poche aziende leader statunitensi, che hanno avuto accesso privilegiato attraverso incontri bilaterali e hanno ottenuto l’accesso esclusivo all’ultima versione del testo, accettino che le regole per GPAI siano una questione di interesse pubblico e non possano essere stabilite solo da loro. Premendo sulla Commissione Europea affinché dia priorità agli interessi di un numero ristretto di aziende statunitensi rispetto alle prospettive di 1.000 stakeholder, queste aziende mettono a rischio l’intero processo e perdono credibilità come attori di interesse pubblico e buoni cittadini aziendali a livello mondiale.

In questo contesto, l’industria confonde erroneamente una regolamentazione debole con l’innovazione, cercando di beneficiare dell’ impulso recente della Commissione per posizionare l’UE come leader globale nell’AI. Questa logica è errata, come sottolineato da Arthur Mensch, CEO di Mistral AI. In un’intervista, ha affermato che il problema principale in Europa non è la regolamentazione, ma piuttosto la frammentazione del mercato e la mancanza di adozione dell’AI. Ma non solo le aziende statunitensi stanno facendo pressione per un Codice indebolito; il regolamento sull’AI ha anche attirato critiche da parte del presidente statunitense.

Il Codice è diventato eccessivamente politicizzato

Nel tentativo di ritrarre una posizione favorevole all’innovazione e calmare le tensioni transatlantiche, alcuni nell’UE hanno reso le firme delle grandi aziende tecnologiche la valuta del successo del Codice. Tale logica è dannosa per l’obiettivo reale del Codice, poiché consente ai fornitori di sfruttare la non firma come una tattica di pressione per orientare e diluire il Codice. Inoltre, le aziende statunitensi hanno usato la non firma per segnalare il loro sostegno al governo statunitense, che è diventato sempre più contrario alla regolamentazione digitale europea.

Ciò che accade quando i fornitori non aderiscono al Codice? Devono optare per mezzi alternativi di conformità, utilizzando quadri di valutazione comparabili o procedure di mitigazione, che devono dimostrare di essere altrettanto efficaci nel raggiungere i requisiti del Regolamento AI. Tuttavia, tale decisione comporterà un costo. Mentre il Codice rappresenta un modo semplice per aderire al Regolamento AI, scegliere mezzi alternativi richiede sforzi estesi per valutare e supportare la loro sufficienza.

Strategia di lamentela, poi conformità

Una funzione fondamentale della regolamentazione è allineare meglio il comportamento delle aziende a scopo di lucro con l’interesse pubblico, stabilendo uno standard di cura. In risposta, le aziende spesso reagiscono con reazioni istintive, proclamando tali regole come inattuabili. Inizialmente, Google sosteneva di non poter gestire i takedown basati sul diritto all’oblio. Nel frattempo, ora rimuove senza problemi centinaia di migliaia di contenuti all’anno in risposta a richieste di cancellazione.

La Commissione Europea non deve cadere preda di tali tattiche di lobbying aziendale. Raramente un fornitore di modelli GPAI esprimerà entusiasmo per le nuove regole. Alcuni le considereranno eccessivamente prescrittive, mentre altri sosterranno che sono troppo vaghe. Ma invece di cedere, la Commissione deve garantire che il Codice rifletta l’intento del Regolamento AI, salvaguardando gli interessi e i diritti del popolo europeo.

Una volta che le nuove regole saranno in vigore, le aziende risponderanno innovando. Per GPAI, questo significherà investire in modelli più sicuri, trasparenti e affidabili. È probabile che i fornitori beneficeranno di questi investimenti nel medio termine. Con la creazione di uno standard di cura ragionevole, i rischi GPAI potrebbero diventare assicurabili.

Resistere alla pressione

La Commissione Europea non può ignorare il suo dovere di garantire che il Codice di Condotta onori lo spirito del Regolamento AI, come concordato dai co-legislatori. Questo significa proteggere i diritti dei cittadini europei e l’interesse pubblico.

Una delle innovazioni fondamentali del Codice è il suo processo di redazione inclusivo, che coinvolge oltre 1.000 stakeholder provenienti dal mondo accademico, dalla società civile e dal settore privato. Se vedono i loro sforzi e il loro impegno collassare a favore delle preferenze e dei profitti di un numero ristretto di aziende leader nell’AI, si arrecherà un danno significativo all’impegno civico e alla democrazia nell’UE.

Infine, la Commissione non deve sottovalutare la sua posizione: può adottare il Codice, potenzialmente in una versione più rigorosa, anche senza le firme delle aziende interessate. Ciò renderebbe le misure nel Codice il modo ufficiale per valutare la conformità GPAI al Regolamento AI.

More Insights

Collaborazione e Competizione nell’Intelligenza Artificiale

Il progetto Red Cell mira a sfidare le assunzioni e il pensiero di gruppo nel contesto delle politiche di sicurezza nazionale degli Stati Uniti. L'era dell'intelligenza artificiale sta rimodellando il...

La nuova politica dell’IA in Pakistan: un futuro di innovazione e opportunità

Il Pakistan ha introdotto una politica nazionale ambiziosa per l'intelligenza artificiale, mirata a costruire un mercato domestico dell'IA da 2,7 miliardi di dollari in cinque anni. La politica si...

Governare l’etica dell’IA per un futuro sostenibile

La governance etica dell'IA è ora una priorità strategica che richiede il coinvolgimento attivo dei dirigenti e una collaborazione trasversale per garantire che i principi etici siano integrati in...

Strategie AI per l’Istruzione Superiore

L'intelligenza artificiale sta trasformando l'istruzione superiore, migliorando le strategie didattiche e rafforzando la sicurezza fisica. Le istituzioni devono bilanciare sperimentazione ed...

Governare l’AI per un futuro sostenibile in Africa

L'intelligenza artificiale (IA) non è più solo appannaggio delle economie avanzate; sta gradualmente plasmando i servizi finanziari, l'agricoltura, l'istruzione e persino il governo in Africa. La...

Il Contraccolpo dell’Intelligenza Artificiale

La trasformazione economica dell'IA è iniziata, con aziende come IBM e Salesforce che hanno ridotto il personale grazie all'automazione. Tuttavia, l'adozione dell'IA solleverà questioni politiche...

Etica del lavoro digitale: responsabilità nell’era dell’IA

Il lavoro digitale sta diventando sempre più comune, ma sono state implementate poche regole ampiamente accettate per governarlo. La sfida principale per i leader è gestire l'implementazione e la...

Strumento Petri: Auditing AI Sicuro e Automatizzato

Anthropic ha lanciato Petri, uno strumento open source per l'audit della sicurezza dell'IA, progettato per testare automaticamente i modelli di linguaggio di grandi dimensioni (LLM) per comportamenti...

L’armonia tra il Regolamento UE sull’IA e il GDPR

L'IA è la parola d'ordine onnipresente nel settore legale e l'Atto sull'IA dell'UE è uno dei principali argomenti di interesse per molti professionisti legali. Questo articolo esplora le interazioni...