Legislazione sull’IA: La controversia sul rispetto delle norme volontarie

Legislatori dell’UE si Oppongono alle Regole di Conformità Volontaria dell’AI Act che Potrebbero Beneficiare Google e OpenAI

La Commissione Europea sta considerando di rendere più volontari i requisiti dell’AI Act, una mossa che beneficerebbe i grandi sviluppatori di intelligenza artificiale come Google e OpenAI. Tuttavia, questa proposta sta affrontando un forte contrasto da parte del Parlamento Europeo.

Deregulation in Agenda

Dopo l’approvazione dell’AI Act nel 2024, il clima politico è cambiato significativamente. Sebbene il progetto di legge sia stato redatto con la sicurezza in mente, le preoccupazioni riguardo alla competitività europea hanno portato a richieste per un approccio più lassista che potrebbe favorire l’innovazione.

Nel mese di febbraio, la Commissione ha rimosso una proposta di direttiva sulla responsabilità dell’AI dal suo programma di lavoro per il 2025, dichiarando che non c’era “nessun accordo prevedibile” sulla legislazione.

Pressione dagli Stati Uniti

Mentre la spinta alla deregulation dell’UE è in parte una risposta alla lenta crescita economica del blocco, anche la pressione da parte dell’amministrazione statunitense ha giocato un ruolo significativo. Un recente memorandum della Casa Bianca ha citato direttamente l’AI Act come potenziale minaccia per le aziende americane.

In questo contesto geopolitico, le grandi aziende tecnologiche statunitensi, come Google e OpenAI, sarebbero tra i maggiori beneficiari di un indebolimento dell’AI Act.

Avvertimenti dei MEP contro il Diminuzione dell’AI Act

Come riportato per la prima volta da fonti affidabili, i Membri del Parlamento Europeo (MEP) che hanno aiutato a negoziare l’AI Act hanno scritto alla Commissione, opponendosi ai piani per indebolire l’AI Act, definendoli “pericolosi” e “antidemocratici”.

La lettera ha sostenuto che se gli sviluppatori di AI non sono tenuti a rispettare elevati standard di sicurezza e affidabilità, “le conseguenze potrebbero profondamente disturbare l’economia e la democrazia europea.”

In conclusione, la lotta per mantenere l’AI Act in una forma forte e responsabile continua, mentre l’UE cerca di trovare un equilibrio tra innovazione e protezione.

More Insights

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...

AI Sovrana: Il Futuro della Produzione Intelligente

Le nuvole AI sovrane offrono sia controllo che conformità, affrontando le crescenti preoccupazioni riguardo alla residenza dei dati e al rischio normativo. Per i fornitori di servizi gestiti, questa è...

Etica dell’IA: Progresso e Inclusività in Scozia

L'Allianza Scozzese per l'IA ha pubblicato il suo Rapporto di Impatto 2024/2025, evidenziando un anno di progressi nella promozione di un'intelligenza artificiale etica e inclusiva in Scozia. Il...

L’Urgenza del Regolamento sull’IA: Preparati al Cambiamento

L'annuncio della Commissione UE venerdì scorso che non ci sarà un ritardo nell'Atto sull'IA dell'UE ha suscitato reazioni contrastanti. È tempo di agire e ottenere alcuni fatti, poiché le scadenze di...

Affidabilità dei Modelli Linguistici nella Prospettiva della Legge AI dell’UE

Lo studio sistematico esamina la fiducia nei grandi modelli linguistici (LLM) alla luce del Regolamento sull'IA dell'UE, evidenziando le preoccupazioni relative all'affidabilità e ai principi di...

La pausa sull’AI Act dell’UE: opportunità o rischio?

Il 8 luglio 2025, la Commissione Europea ha ribadito il proprio impegno per rispettare il calendario dell'AI Act, nonostante le richieste di rinvio da parte di alcune aziende. Il Primo Ministro...

Controlli Trump sull’IA: Rischi e Opportunità nel Settore Tecnologico

L'amministrazione Trump si sta preparando a nuove restrizioni sulle esportazioni di chip AI verso Malesia e Thailandia, al fine di prevenire l'accesso della Cina a processori avanzati. Le nuove...

Governance AI: Fondamenti per un Futuro Etico

La governance dell'intelligenza artificiale e la governance dei dati sono diventate cruciali per garantire lo sviluppo di soluzioni AI affidabili ed etiche. Questi framework di governance sono...

LLMOps: Potenziare l’IA Responsabile con Python

In un panorama ipercompetitivo, non è sufficiente distribuire modelli di linguaggio di grandi dimensioni (LLM); è necessario un robusto framework LLMOps per garantire affidabilità e conformità...