Giganti della tecnologia sfidano l’UE sull’AI Act

Le Reazioni dei Giganti della Tecnologia in un Momento Cruciale per l’Atto sull’IA dell’UE

L’Atto sull’IA dell’UE è stato acclamato come il più completo insieme di regolamenti sull’intelligenza artificiale al mondo. Tuttavia, si tratta di principi generali senza dettagli per l’implementazione.

Il vero lavoro si svolge con il Codice di Pratica per i modelli di IA di uso generale, che dettaglia i requisiti di conformità per le aziende di IA.

“Molti al di fuori dell’Europa hanno smesso di prestare attenzione all’Atto sull’IA dell’UE, considerandolo un affare concluso. Questo è un terribile errore. La vera battaglia si sta svolgendo proprio ora,” ha affermato un esperto nel campo.

Il codice di pratica subirà tre bozze prima di essere finalizzato alla fine di aprile. Questi requisiti volontari entreranno in vigore ad agosto.

Tuttavia, la terza bozza doveva essere rilasciata il 17 febbraio, ma è stata ritardata, con indicazioni che non sarà disponibile per un mese, secondo un alto funzionario della politica e della ricerca dell’UE.

Il ritardo nella bozza è stato attribuito alla pressione dell’industria tecnologica, in particolare per le normative sui modelli di IA che presentano un rischio sistemico, applicabili a 10-15 dei più grandi modelli creati da aziende come OpenAI, Google, Meta, Anthropic, e xAI.

I Giganti Tecnologici Fanno Resistenza

Le grandi aziende tecnologiche stanno sfidando audacemente le normative dell’UE, credendo di avere il supporto dell’amministrazione Trump. Meta ha inviato lobbisti tecnologici nell’UE per attenuare l’Atto sull’IA.

Inoltre, Meta ha rifiutato di firmare il codice di pratica, un accordo di conformità volontaria, mentre Kent Walker di Google ha affermato che il codice di pratica era un “passo nella direzione sbagliata” in un momento in cui l’Europa desidera essere più competitiva.

“Alcune grandi aziende tecnologiche affermano che non firmeranno questo codice di pratica a meno che non venga modificato secondo le loro richieste,” ha dichiarato un esperto.

Le questioni controverse riguardano l’uso del materiale protetto da copyright per l’addestramento e la necessità di una valutazione indipendente dei loro modelli per i rischi.

Si lamentano che il codice vada oltre i requisiti dell’Atto sull’IA dell’UE. Tuttavia, molti di loro già esercitano queste pratiche in collaborazione con istituzioni come l’AI Safety Institute del Regno Unito.

Esiste una preoccupazione che l’UE possa indebolire le disposizioni di sicurezza a causa dell’opposizione delle aziende tecnologiche, soprattutto con la nuova amministrazione della Commissione Europea che tende a semplificare le regole e aumentare l’innovazione.

Cosa è Successo Dopo la Lettera di Pausa sull’IA?

L’istituto Future of Life è noto per aver diffuso una lettera aperta nel marzo 2023 che chiedeva un moratorio di sei mesi sui modelli di IA avanzati fino allo sviluppo di protocolli di sicurezza.

Questa lettera è stata firmata da nomi illustri come Elon Musk e Steve Wozniak, tra gli altri.

La lettera ha avuto successo? Secondo gli esperti, non c’è stata alcuna pausa nello sviluppo dell’IA, e il rapido progresso delle tecnologie di IA è continuato.

Molte di queste aziende non hanno aumentato il loro lavoro sulla sicurezza, che la lettera di “pausa” richiedeva. La pausa non era solo un modo per fermarsi, ma doveva essere utilizzata per aumentare il lavoro sulla sicurezza dell’IA, che, in molti casi, non è avvenuto.

In maggio 2024, OpenAI ha sciolto il proprio team di sicurezza IA pochi giorni dopo le dimissioni dei suoi due leader di sicurezza IA, che hanno dichiarato pubblicamente che OpenAI non dava priorità alla sicurezza dell’IA.

Un aspetto positivo è che, mentre le aziende tecnologiche continuano a costruire, l’azione normativa ha guadagnato slancio a livello globale.

È stato osservato che l’Atto sull’IA dell’UE è diventato la prima regolamentazione completa al mondo in materia di IA, adottata nel marzo 2024.

Altri paesi, come la Corea del Sud e la Cina, stanno introducendo politiche di governance sull’IA, mentre il Brasile sta lavorando al proprio Atto sull’IA.

Negli Stati Uniti, la situazione rimane frammentata, con stati che introducono le proprie leggi.

Infine, c’è stata delusione riguardo al recente AI Action Summit a Parigi, che ha visto un’inclinazione verso la promozione dell’innovazione nell’IA, con scarso focus sulla sicurezza.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...