Le Reazioni dei Giganti della Tecnologia in un Momento Cruciale per l’Atto sull’IA dell’UE
L’Atto sull’IA dell’UE è stato acclamato come il più completo insieme di regolamenti sull’intelligenza artificiale al mondo. Tuttavia, si tratta di principi generali senza dettagli per l’implementazione.
Il vero lavoro si svolge con il Codice di Pratica per i modelli di IA di uso generale, che dettaglia i requisiti di conformità per le aziende di IA.
“Molti al di fuori dell’Europa hanno smesso di prestare attenzione all’Atto sull’IA dell’UE, considerandolo un affare concluso. Questo è un terribile errore. La vera battaglia si sta svolgendo proprio ora,” ha affermato un esperto nel campo.
Il codice di pratica subirà tre bozze prima di essere finalizzato alla fine di aprile. Questi requisiti volontari entreranno in vigore ad agosto.
Tuttavia, la terza bozza doveva essere rilasciata il 17 febbraio, ma è stata ritardata, con indicazioni che non sarà disponibile per un mese, secondo un alto funzionario della politica e della ricerca dell’UE.
Il ritardo nella bozza è stato attribuito alla pressione dell’industria tecnologica, in particolare per le normative sui modelli di IA che presentano un rischio sistemico, applicabili a 10-15 dei più grandi modelli creati da aziende come OpenAI, Google, Meta, Anthropic, e xAI.
I Giganti Tecnologici Fanno Resistenza
Le grandi aziende tecnologiche stanno sfidando audacemente le normative dell’UE, credendo di avere il supporto dell’amministrazione Trump. Meta ha inviato lobbisti tecnologici nell’UE per attenuare l’Atto sull’IA.
Inoltre, Meta ha rifiutato di firmare il codice di pratica, un accordo di conformità volontaria, mentre Kent Walker di Google ha affermato che il codice di pratica era un “passo nella direzione sbagliata” in un momento in cui l’Europa desidera essere più competitiva.
“Alcune grandi aziende tecnologiche affermano che non firmeranno questo codice di pratica a meno che non venga modificato secondo le loro richieste,” ha dichiarato un esperto.
Le questioni controverse riguardano l’uso del materiale protetto da copyright per l’addestramento e la necessità di una valutazione indipendente dei loro modelli per i rischi.
Si lamentano che il codice vada oltre i requisiti dell’Atto sull’IA dell’UE. Tuttavia, molti di loro già esercitano queste pratiche in collaborazione con istituzioni come l’AI Safety Institute del Regno Unito.
Esiste una preoccupazione che l’UE possa indebolire le disposizioni di sicurezza a causa dell’opposizione delle aziende tecnologiche, soprattutto con la nuova amministrazione della Commissione Europea che tende a semplificare le regole e aumentare l’innovazione.
Cosa è Successo Dopo la Lettera di Pausa sull’IA?
L’istituto Future of Life è noto per aver diffuso una lettera aperta nel marzo 2023 che chiedeva un moratorio di sei mesi sui modelli di IA avanzati fino allo sviluppo di protocolli di sicurezza.
Questa lettera è stata firmata da nomi illustri come Elon Musk e Steve Wozniak, tra gli altri.
La lettera ha avuto successo? Secondo gli esperti, non c’è stata alcuna pausa nello sviluppo dell’IA, e il rapido progresso delle tecnologie di IA è continuato.
Molte di queste aziende non hanno aumentato il loro lavoro sulla sicurezza, che la lettera di “pausa” richiedeva. La pausa non era solo un modo per fermarsi, ma doveva essere utilizzata per aumentare il lavoro sulla sicurezza dell’IA, che, in molti casi, non è avvenuto.
In maggio 2024, OpenAI ha sciolto il proprio team di sicurezza IA pochi giorni dopo le dimissioni dei suoi due leader di sicurezza IA, che hanno dichiarato pubblicamente che OpenAI non dava priorità alla sicurezza dell’IA.
Un aspetto positivo è che, mentre le aziende tecnologiche continuano a costruire, l’azione normativa ha guadagnato slancio a livello globale.
È stato osservato che l’Atto sull’IA dell’UE è diventato la prima regolamentazione completa al mondo in materia di IA, adottata nel marzo 2024.
Altri paesi, come la Corea del Sud e la Cina, stanno introducendo politiche di governance sull’IA, mentre il Brasile sta lavorando al proprio Atto sull’IA.
Negli Stati Uniti, la situazione rimane frammentata, con stati che introducono le proprie leggi.
Infine, c’è stata delusione riguardo al recente AI Action Summit a Parigi, che ha visto un’inclinazione verso la promozione dell’innovazione nell’IA, con scarso focus sulla sicurezza.