L’atto sull’IA dell’UE: innovazione o freno?

Una spada a doppio taglio: la legge sull’IA dell’UE soffoca o incoraggia l’innovazione tecnologica?

La recente summit di Parigi dei leader globali per discutere l’intelligenza artificiale ha riportato l’IA sotto i riflettori. Il Paris Artificial Intelligence Action Summit di febbraio 2025 ha rappresentato un tentativo di rafforzare l’azione internazionale a favore di un’IA più sostenibile al servizio del progresso collettivo e dell’interesse generale.

Inoltre, il 2 febbraio 2025, l’approccio normativo cauto dell’UE è stato dimostrato con l’entrata in vigore dei primi aspetti della legge sull’IA dell’UE. Questa legge comporta un divieto assoluto per i sistemi di IA che presentano un “rischio inaccettabile”, indipendentemente dal fatto che questi sistemi siano stati immessi sul mercato prima o dopo tale data.

Obiettivi della legge sull’IA dell’UE

Lo scopo della legge sull’IA dell’UE è stabilire un quadro giuridico uniforme per lo sviluppo e l’uso dei sistemi di IA, garantendo al contempo un elevato livello di protezione degli interessi pubblici, tra cui la salute, la sicurezza e i diritti fondamentali.

Il contrasto tra l’approccio dell’UE e quello degli Stati Uniti è evidente. Durante il summit di Parigi, il vicepresidente statunitense JD Vance ha affermato: “Crediamo che una regolamentazione eccessiva del settore dell’IA potrebbe soffocare un’industria trasformativa proprio quando sta decollando”.

Impatto della legge sull’IA

La legge sull’IA dell’UE è entrata in vigore il 1 agosto 2024, ma con diverse disposizioni programmate per entrare in vigore successivamente. La maggior parte delle disposizioni entrerà in vigore il 2 agosto 2026.

Il primo impatto della legge sull’IA dell’UE non riguarderà solo le aziende con sede nell’UE, ma anche le aziende straniere. Questo perché l’Articolo 2 della legge stabilisce il suo effetto extraterritoriale, in cui l’output di un sistema di IA è utilizzato all’interno dell’UE.

Si prevede inoltre che la legge sull’IA dell’UE possa diventare un benchmark normativo globale, simile al GDPR. Alcuni potrebbero quindi cercare di armonizzarsi con la legge sull’IA dell’UE come questione di buona prassi e di gestione del rischio.

Approccio basato sul rischio

La legge sull’IA dell’UE adotta un approccio basato sul rischio adattato al livello di rischio del sistema:

  • Sistemi di IA a rischio inaccettabile, che utilizzano pratiche manipolative, sfruttative, di controllo sociale o di sorveglianza, sono ora vietati.
  • Sistemi di IA ad alto rischio, che creano un rischio significativo di danno alla salute, sicurezza o diritti fondamentali delle persone, sono regolamentati.
  • Sistemi di IA a rischio limitato, come chatbot o deepfake, sono soggetti a obblighi di trasparenza.
  • Sistemi di IA a rischio minimo, come i filtri antispam, non sono regolamentati dalla legge sull’IA dell’UE ma sono comunque soggetti a normative applicabili come il GDPR.

La Commissione Europea ha pubblicato due set di linee guida sulla definizione dei sistemi di IA e sulle pratiche di IA vietate per aumentare la chiarezza giuridica e garantire un’applicazione uniforme della legge sull’IA dell’UE.

Tuttavia, queste ampie linee guida sono “non vincolanti” e l’interpretazione della legge sull’IA dell’UE è una questione per la Corte di Giustizia dell’Unione Europea. Resta da vedere quanto ampiamente sarà interpretata la legge sull’IA dell’UE.

Conseguenze per le aziende

In pratica, le aziende del Regno Unito che commerciano nell’UE, siano esse fornitori, utilizzatori, importatori, distributori o rappresentanti di sistemi di IA, devono assicurarsi di non utilizzare sistemi di IA che forniscono punteggi sociali per le persone fisiche o che effettuano scraping indiscriminato di immagini facciali per popolare database di riconoscimento facciale. Questi sistemi sono ora vietati nell’UE.

Le penali per non conformità sono sostanziali, con le violazioni relative all’IA vietata che possono comportare il 7% del fatturato annuale globale dell’offensore o 35 milioni di euro, a seconda di quale sia maggiore.

Eccezioni e incentivi all’innovazione

Ci sono eccezioni alla legge sull’IA, in particolare riguardo ai sistemi di IA sviluppati per uso privato, per scopi di ricerca scientifica e sviluppo, o se sono rilasciati sotto licenze gratuite e open-source (tranne quando qualificati come ad alto rischio). Inoltre, la legge sull’IA supporta l’innovazione consentendo la creazione di sandbox regolatorie per l’IA (che forniscono un ambiente controllato per favorire l’innovazione permettendo lo sviluppo, la formazione e il collaudo di sistemi di IA innovativi) e fornendo un quadro per il collaudo di sistemi di IA ad alto rischio in condizioni reali. Sono state inoltre adottate misure specifiche per le piccole e medie imprese e le start-up per aiutarle a entrare nel mercato dell’IA e diventare competitor delle aziende già consolidate.

Resta da vedere se questo sarà sufficiente per rendere l’UE una meta attraente per la ricerca e le start-up nel campo dell’IA o se queste varie disposizioni soffocheranno l’innovazione. Si potrebbe affermare che un tale quadro giuridico per lo sviluppo e l’uso dei sistemi di IA in conformità con i valori e i diritti fondamentali dell’UE possa aiutare ad aumentare la fiducia degli utenti nell’IA, il che aumenterà la domanda in questo campo.

Per stimolare l’innovazione, il presidente francese Emmanuel Macron ha annunciato circa 100 miliardi di euro in investimenti legati all’IA durante il recente summit di Parigi. Tuttavia, qualsiasi tipo di incentivo non solleverà le aziende dall’onere di conformarsi non solo alla legge sull’IA dell’UE, ma anche ad altre normative europee applicabili. Ad esempio, qualsiasi sistema di IA che elabori dati personali dovrà conformarsi al GDPR. A questo proposito, l’Autorità francese per la protezione dei dati (CNIL) ha già pubblicato raccomandazioni per garantire la conformità al GDPR.

Resta da vedere se l’UE emergerà come un vero innovatore nell’IA, ma la corsa per guidare la rivoluzione dell’IA è ampiamente considerata come una gara tra due cavalli: gli Stati Uniti e la Cina.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...