Il rischio della deregolamentazione per l’AI Act in Europa

Il Rischio della Deregolamentazione in Europa per l’AI Act

Nel giugno 2024, l’Unione Europea ha adottato l’Artificial Intelligence Act dopo anni di negoziati intensi e numerosi emendamenti. Tuttavia, un mese dopo l’adozione, il nuovo regolamento si è trovato sotto attacco, con il ex presidente della Banca Centrale Europea Mario Draghi che lo ha citato come esempio di un ostacolo normativo per il settore tecnologico.

La Commissione Europea ha annunciato l’intenzione di perseguire almeno cinque iniziative di semplificazione, includendo la valutazione dell’EU digital rulebook per capire se le norme attuali soddisfano le esigenze delle piccole e medie imprese. Tra i documenti menzionati c’è anche l’AI Act, insieme al General Data Protection Regulation (GDPR).

L’Importanza della Semplificazione

Le preoccupazioni riguardo alla possibilità di un indebolimento dell’AI Act si sono intensificate dopo le dichiarazioni della Commissione Europea al French AI Summit, dove la presidente Ursula Von der Leyen ha promesso di eliminare la burocrazia. Quella stessa sera, il progetto di direttiva sull’AI Liability, che avrebbe dovuto stabilire regole di responsabilità per i danni causati dai sistemi di intelligenza artificiale, è stato ritirato dal programma di lavoro della Commissione per il 2025.

Il piano di azione AI Continent ha identificato la semplificazione come un pilastro fondamentale, annunciando l’istituzione di un AI Act Service Desk per fornire supporto pratico alle start-up e alle PMI.

Le Implicazioni della Deregolamentazione

La Commissione invita ora le parti interessate a identificare le sfide normative e a proporre misure per facilitare la conformità all’AI Act, aprendo la strada a ulteriori sforzi di deregolamentazione. È stato riportato che la Commissione sta considerando di rinviare l’entrata in applicazione dell’AI Act.

Le dichiarazioni precedenti della Commissione avevano indicato che l’obiettivo principale della semplificazione sarebbero stati gli obblighi di reporting previsti dall’AI Act. Questo potrebbe portare a cambiamenti mirati, ma con potenziali implicazioni negative per lo sviluppo sicuro e il dispiegamento dell’IA.

La Necessità di Decisioni Basate su Evidenze

La possibilità di riaprire una legge, gran parte della quale è ancora non applicabile, è preoccupante e si allinea con le richieste dell’industria per una semplificazione generosa. In un documento intitolato EU Economic Blueprint, OpenAI ha affermato che le normative europee ostacolano l’innovazione e rallentano la crescita economica.

La EU AI Champions Initiative ha sostenuto argomenti simili, affermando che l’AI Act ha creato incertezze di mercato e ha indotto le aziende a esitare nell’adozione dell’IA.

È fondamentale che la Commissione Europea impari dagli errori del passato e garantisca che qualsiasi modifica proposta all’AI Act sia ampiamente consultata e valutata prima di essere formulata. In caso contrario, si rischia di compromettere le protezioni dei diritti fondamentali ottenute con fatica.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...