Rischi e Riforme: Il Futuro dell’AI nell’UE

Perché la storica legge sull’IA dell’UE potrebbe non andare come previsto

La legge sull’intelligenza artificiale (IA) dell’Unione Europea, progettata per regolamentare i rischi legati all’IA, si trova di fronte a potenziali revisioni a causa di un clima politico in cambiamento e di pressioni da parte dell’industria, meno di un anno dopo il suo accordo. Questo ha suscitato preoccupazioni tra i difensori della sicurezza e incertezze all’interno dell’industria.

Inizialmente celebrata per aver fissato uno standard di sicurezza globale, la legge sull’IA è ora a rischio di modifica mentre l’UE prioritizza il recupero rispetto agli Stati Uniti e alla Cina nel settore dell’IA attraverso leggi semplificate e requisiti aziendali ridotti. I sostenitori avvertono dei potenziali rischi tecnologici, mentre alcuni nel settore esprimono preoccupazione per l’incertezza.

Impatto della Legge sull’IA

Tomasz Snażyk, CEO di AI Chamber, ha dichiarato: “Se vuoi veramente imporre qualcosa, impongilo; se vuoi fermare il tempo, fermiamo il tempo. La gente vuole essere molto certa di ciò che sta accadendo.”

Kim van Sparrentak, parlamentare olandese dei Verdi, ha avvertito del rischio di ostacolare l’adozione della tecnologia, notando che solo il 13% delle aziende europee è stimato utilizzare correttamente l’IA. Ha affermato che far rispettare la legge sull’IA è essenziale per garantire la sicurezza e la funzionalità dei sistemi IA sul mercato, incoraggiando un’adozione più ampia.

Pressioni dal Settore Tecnologico

Al contrario, l’industria della Big Tech, supportata dal governo statunitense, sostiene di ritardare l’implementazione per consentire tempo sufficiente per la conformità. Il gruppo di lobbying CCIA ha argomentato che un rinvio è essenziale per fornire alle aziende il tempo necessario per prepararsi.

Nel gennaio scorso, l’amministrazione Trump ha espresso preoccupazioni riguardo alla legge sull’IA. A giugno, il capo della sovranità tecnologica della Commissione Europea, Henna Virkkunen, ha suggerito di sospendere l’attuazione della legge, nonostante la sua ufficiale entrata in vigore nell’agosto 2024. Sebbene alcune proibizioni pratiche sull’IA siano entrate in vigore a febbraio, nuove normative per le applicazioni IA ad alto rischio sono programmate per il 2026 o il 2027.

Virkkunen ha dichiarato il 6 giugno a Lussemburgo che dovrebbe essere considerata la sospensione di parti della legge sull’IA se gli standard e le linee guida non sono pronti in tempo. Inoltre, la Commissione sta esaminando la semplificazione delle proprie norme digitali, con un focus su IA, cybersecurity e regolamenti sui dati, che saranno presentati a dicembre.

Preoccupazioni per la Deregolamentazione

Blue Duangdjai Tiyavorabun, consulente politico di EDRi, ha espresso profonda preoccupazione per i tentativi di deregolarizzare disposizioni chiave della legge sull’IA, avvertendo contro il rapido smantellamento delle protezioni legali. I legislatori pianificano di interrogare Virkkunen a Strasburgo riguardo alla possibile pausa durante un incontro di monitoraggio dell’attuazione della legge sull’IA.

Il parlamentare irlandese Michael McNamara, co-presidente dell’incontro, prevede che la pausa dominerà le discussioni.

Effetto Bruxelles e Futuro dell’IA

L’attuale indecisione potrebbe minare l’“effetto Bruxelles”, dove le normative tecnologiche dell’UE hanno un impatto globale. La Commissione affronta la sfida di promuovere aziende di IA locali senza compromettere le proprie capacità di regolamentazione. Van Sparrentak ha sottolineato l’importanza per la Commissione di segnalare il proprio impegno verso la legge sull’IA.

La mancanza di linee guida della Commissione riguardo alla trasparenza e al controllo umano ha spinto i gruppi industriali, inizialmente contrari alle norme, a richiedere pubblicamente un rinvio. Anche il governo statunitense ha sostenuto un ritardo, inviando feedback alla Commissione Europea in aprile.

Van Sparrentak ha criticato il fatto di ascoltare la richiesta di Trump di fermare la legge, esortando la Commissione a garantire la sicurezza dei sistemi IA in Europa.

Il portavoce della Commissione Europea, Thomas Regnier, ha confermato l’impegno della Commissione verso gli obiettivi della legge sull’IA, pur sottolineando che “tutte le opzioni rimangono aperte per considerazione” mentre cerca di semplificare le norme digitali.

More Insights

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...

AI Sovrana: Il Futuro della Produzione Intelligente

Le nuvole AI sovrane offrono sia controllo che conformità, affrontando le crescenti preoccupazioni riguardo alla residenza dei dati e al rischio normativo. Per i fornitori di servizi gestiti, questa è...

Etica dell’IA: Progresso e Inclusività in Scozia

L'Allianza Scozzese per l'IA ha pubblicato il suo Rapporto di Impatto 2024/2025, evidenziando un anno di progressi nella promozione di un'intelligenza artificiale etica e inclusiva in Scozia. Il...

L’Urgenza del Regolamento sull’IA: Preparati al Cambiamento

L'annuncio della Commissione UE venerdì scorso che non ci sarà un ritardo nell'Atto sull'IA dell'UE ha suscitato reazioni contrastanti. È tempo di agire e ottenere alcuni fatti, poiché le scadenze di...

Affidabilità dei Modelli Linguistici nella Prospettiva della Legge AI dell’UE

Lo studio sistematico esamina la fiducia nei grandi modelli linguistici (LLM) alla luce del Regolamento sull'IA dell'UE, evidenziando le preoccupazioni relative all'affidabilità e ai principi di...

La pausa sull’AI Act dell’UE: opportunità o rischio?

Il 8 luglio 2025, la Commissione Europea ha ribadito il proprio impegno per rispettare il calendario dell'AI Act, nonostante le richieste di rinvio da parte di alcune aziende. Il Primo Ministro...

Controlli Trump sull’IA: Rischi e Opportunità nel Settore Tecnologico

L'amministrazione Trump si sta preparando a nuove restrizioni sulle esportazioni di chip AI verso Malesia e Thailandia, al fine di prevenire l'accesso della Cina a processori avanzati. Le nuove...

Governance AI: Fondamenti per un Futuro Etico

La governance dell'intelligenza artificiale e la governance dei dati sono diventate cruciali per garantire lo sviluppo di soluzioni AI affidabili ed etiche. Questi framework di governance sono...

LLMOps: Potenziare l’IA Responsabile con Python

In un panorama ipercompetitivo, non è sufficiente distribuire modelli di linguaggio di grandi dimensioni (LLM); è necessario un robusto framework LLMOps per garantire affidabilità e conformità...