Giganti della tecnologia sfidano l’UE sull’AI Act

Le Reazioni dei Giganti della Tecnologia in un Momento Cruciale per l’Atto sull’IA dell’UE

L’Atto sull’IA dell’UE è stato acclamato come il più completo insieme di regolamenti sull’intelligenza artificiale al mondo. Tuttavia, si tratta di principi generali senza dettagli per l’implementazione.

Il vero lavoro si svolge con il Codice di Pratica per i modelli di IA di uso generale, che dettaglia i requisiti di conformità per le aziende di IA.

“Molti al di fuori dell’Europa hanno smesso di prestare attenzione all’Atto sull’IA dell’UE, considerandolo un affare concluso. Questo è un terribile errore. La vera battaglia si sta svolgendo proprio ora,” ha affermato un esperto nel campo.

Il codice di pratica subirà tre bozze prima di essere finalizzato alla fine di aprile. Questi requisiti volontari entreranno in vigore ad agosto.

Tuttavia, la terza bozza doveva essere rilasciata il 17 febbraio, ma è stata ritardata, con indicazioni che non sarà disponibile per un mese, secondo un alto funzionario della politica e della ricerca dell’UE.

Il ritardo nella bozza è stato attribuito alla pressione dell’industria tecnologica, in particolare per le normative sui modelli di IA che presentano un rischio sistemico, applicabili a 10-15 dei più grandi modelli creati da aziende come OpenAI, Google, Meta, Anthropic, e xAI.

I Giganti Tecnologici Fanno Resistenza

Le grandi aziende tecnologiche stanno sfidando audacemente le normative dell’UE, credendo di avere il supporto dell’amministrazione Trump. Meta ha inviato lobbisti tecnologici nell’UE per attenuare l’Atto sull’IA.

Inoltre, Meta ha rifiutato di firmare il codice di pratica, un accordo di conformità volontaria, mentre Kent Walker di Google ha affermato che il codice di pratica era un “passo nella direzione sbagliata” in un momento in cui l’Europa desidera essere più competitiva.

“Alcune grandi aziende tecnologiche affermano che non firmeranno questo codice di pratica a meno che non venga modificato secondo le loro richieste,” ha dichiarato un esperto.

Le questioni controverse riguardano l’uso del materiale protetto da copyright per l’addestramento e la necessità di una valutazione indipendente dei loro modelli per i rischi.

Si lamentano che il codice vada oltre i requisiti dell’Atto sull’IA dell’UE. Tuttavia, molti di loro già esercitano queste pratiche in collaborazione con istituzioni come l’AI Safety Institute del Regno Unito.

Esiste una preoccupazione che l’UE possa indebolire le disposizioni di sicurezza a causa dell’opposizione delle aziende tecnologiche, soprattutto con la nuova amministrazione della Commissione Europea che tende a semplificare le regole e aumentare l’innovazione.

Cosa è Successo Dopo la Lettera di Pausa sull’IA?

L’istituto Future of Life è noto per aver diffuso una lettera aperta nel marzo 2023 che chiedeva un moratorio di sei mesi sui modelli di IA avanzati fino allo sviluppo di protocolli di sicurezza.

Questa lettera è stata firmata da nomi illustri come Elon Musk e Steve Wozniak, tra gli altri.

La lettera ha avuto successo? Secondo gli esperti, non c’è stata alcuna pausa nello sviluppo dell’IA, e il rapido progresso delle tecnologie di IA è continuato.

Molte di queste aziende non hanno aumentato il loro lavoro sulla sicurezza, che la lettera di “pausa” richiedeva. La pausa non era solo un modo per fermarsi, ma doveva essere utilizzata per aumentare il lavoro sulla sicurezza dell’IA, che, in molti casi, non è avvenuto.

In maggio 2024, OpenAI ha sciolto il proprio team di sicurezza IA pochi giorni dopo le dimissioni dei suoi due leader di sicurezza IA, che hanno dichiarato pubblicamente che OpenAI non dava priorità alla sicurezza dell’IA.

Un aspetto positivo è che, mentre le aziende tecnologiche continuano a costruire, l’azione normativa ha guadagnato slancio a livello globale.

È stato osservato che l’Atto sull’IA dell’UE è diventato la prima regolamentazione completa al mondo in materia di IA, adottata nel marzo 2024.

Altri paesi, come la Corea del Sud e la Cina, stanno introducendo politiche di governance sull’IA, mentre il Brasile sta lavorando al proprio Atto sull’IA.

Negli Stati Uniti, la situazione rimane frammentata, con stati che introducono le proprie leggi.

Infine, c’è stata delusione riguardo al recente AI Action Summit a Parigi, che ha visto un’inclinazione verso la promozione dell’innovazione nell’IA, con scarso focus sulla sicurezza.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...