Giganti della tecnologia sfidano l’UE sull’AI Act

Le Reazioni dei Giganti della Tecnologia in un Momento Cruciale per l’Atto sull’IA dell’UE

L’Atto sull’IA dell’UE è stato acclamato come il più completo insieme di regolamenti sull’intelligenza artificiale al mondo. Tuttavia, si tratta di principi generali senza dettagli per l’implementazione.

Il vero lavoro si svolge con il Codice di Pratica per i modelli di IA di uso generale, che dettaglia i requisiti di conformità per le aziende di IA.

“Molti al di fuori dell’Europa hanno smesso di prestare attenzione all’Atto sull’IA dell’UE, considerandolo un affare concluso. Questo è un terribile errore. La vera battaglia si sta svolgendo proprio ora,” ha affermato un esperto nel campo.

Il codice di pratica subirà tre bozze prima di essere finalizzato alla fine di aprile. Questi requisiti volontari entreranno in vigore ad agosto.

Tuttavia, la terza bozza doveva essere rilasciata il 17 febbraio, ma è stata ritardata, con indicazioni che non sarà disponibile per un mese, secondo un alto funzionario della politica e della ricerca dell’UE.

Il ritardo nella bozza è stato attribuito alla pressione dell’industria tecnologica, in particolare per le normative sui modelli di IA che presentano un rischio sistemico, applicabili a 10-15 dei più grandi modelli creati da aziende come OpenAI, Google, Meta, Anthropic, e xAI.

I Giganti Tecnologici Fanno Resistenza

Le grandi aziende tecnologiche stanno sfidando audacemente le normative dell’UE, credendo di avere il supporto dell’amministrazione Trump. Meta ha inviato lobbisti tecnologici nell’UE per attenuare l’Atto sull’IA.

Inoltre, Meta ha rifiutato di firmare il codice di pratica, un accordo di conformità volontaria, mentre Kent Walker di Google ha affermato che il codice di pratica era un “passo nella direzione sbagliata” in un momento in cui l’Europa desidera essere più competitiva.

“Alcune grandi aziende tecnologiche affermano che non firmeranno questo codice di pratica a meno che non venga modificato secondo le loro richieste,” ha dichiarato un esperto.

Le questioni controverse riguardano l’uso del materiale protetto da copyright per l’addestramento e la necessità di una valutazione indipendente dei loro modelli per i rischi.

Si lamentano che il codice vada oltre i requisiti dell’Atto sull’IA dell’UE. Tuttavia, molti di loro già esercitano queste pratiche in collaborazione con istituzioni come l’AI Safety Institute del Regno Unito.

Esiste una preoccupazione che l’UE possa indebolire le disposizioni di sicurezza a causa dell’opposizione delle aziende tecnologiche, soprattutto con la nuova amministrazione della Commissione Europea che tende a semplificare le regole e aumentare l’innovazione.

Cosa è Successo Dopo la Lettera di Pausa sull’IA?

L’istituto Future of Life è noto per aver diffuso una lettera aperta nel marzo 2023 che chiedeva un moratorio di sei mesi sui modelli di IA avanzati fino allo sviluppo di protocolli di sicurezza.

Questa lettera è stata firmata da nomi illustri come Elon Musk e Steve Wozniak, tra gli altri.

La lettera ha avuto successo? Secondo gli esperti, non c’è stata alcuna pausa nello sviluppo dell’IA, e il rapido progresso delle tecnologie di IA è continuato.

Molte di queste aziende non hanno aumentato il loro lavoro sulla sicurezza, che la lettera di “pausa” richiedeva. La pausa non era solo un modo per fermarsi, ma doveva essere utilizzata per aumentare il lavoro sulla sicurezza dell’IA, che, in molti casi, non è avvenuto.

In maggio 2024, OpenAI ha sciolto il proprio team di sicurezza IA pochi giorni dopo le dimissioni dei suoi due leader di sicurezza IA, che hanno dichiarato pubblicamente che OpenAI non dava priorità alla sicurezza dell’IA.

Un aspetto positivo è che, mentre le aziende tecnologiche continuano a costruire, l’azione normativa ha guadagnato slancio a livello globale.

È stato osservato che l’Atto sull’IA dell’UE è diventato la prima regolamentazione completa al mondo in materia di IA, adottata nel marzo 2024.

Altri paesi, come la Corea del Sud e la Cina, stanno introducendo politiche di governance sull’IA, mentre il Brasile sta lavorando al proprio Atto sull’IA.

Negli Stati Uniti, la situazione rimane frammentata, con stati che introducono le proprie leggi.

Infine, c’è stata delusione riguardo al recente AI Action Summit a Parigi, che ha visto un’inclinazione verso la promozione dell’innovazione nell’IA, con scarso focus sulla sicurezza.

More Insights

Governanza e AI: La Chiave per una Sanità Sicura

L'intelligenza artificiale (AI) sta trasformando il settore sanitario, offrendo opportunità senza precedenti ma anche rischi significativi. Senza solidi framework di governance, gestione del rischio e...

Intelligenza Artificiale per la Sicurezza: Innovazioni Essenziali

Priya Dharshini Kalyanasundaram utilizza la sua esperienza nella gestione dei fornitori e nella conformità per guidare innovazioni nella sicurezza basate sull'IA. Il suo progetto principale è un...

Futuro dell’AI nella Farmacia: Opportunità e Sfide

Gli esperti prevedono difficoltà mentre il settore delle scienze della vita si adatta al Regolamento sull'IA dell'UE. Questo nuovo regolamento potrebbe presentare sfide per le aziende, ma ha anche il...

Governare l’era degli agenti AI: la chiave per il successo

Il CEO di Boomi, Steve Lucas, crede che le aziende debbano educare gli utenti sull'importanza di avere piani per monitorare e governare gli agenti di intelligenza artificiale. "Se non hai quel piano...

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...