L’atto sull’IA dell’UE: innovazione o freno?

Una spada a doppio taglio: la legge sull’IA dell’UE soffoca o incoraggia l’innovazione tecnologica?

La recente summit di Parigi dei leader globali per discutere l’intelligenza artificiale ha riportato l’IA sotto i riflettori. Il Paris Artificial Intelligence Action Summit di febbraio 2025 ha rappresentato un tentativo di rafforzare l’azione internazionale a favore di un’IA più sostenibile al servizio del progresso collettivo e dell’interesse generale.

Inoltre, il 2 febbraio 2025, l’approccio normativo cauto dell’UE è stato dimostrato con l’entrata in vigore dei primi aspetti della legge sull’IA dell’UE. Questa legge comporta un divieto assoluto per i sistemi di IA che presentano un “rischio inaccettabile”, indipendentemente dal fatto che questi sistemi siano stati immessi sul mercato prima o dopo tale data.

Obiettivi della legge sull’IA dell’UE

Lo scopo della legge sull’IA dell’UE è stabilire un quadro giuridico uniforme per lo sviluppo e l’uso dei sistemi di IA, garantendo al contempo un elevato livello di protezione degli interessi pubblici, tra cui la salute, la sicurezza e i diritti fondamentali.

Il contrasto tra l’approccio dell’UE e quello degli Stati Uniti è evidente. Durante il summit di Parigi, il vicepresidente statunitense JD Vance ha affermato: “Crediamo che una regolamentazione eccessiva del settore dell’IA potrebbe soffocare un’industria trasformativa proprio quando sta decollando”.

Impatto della legge sull’IA

La legge sull’IA dell’UE è entrata in vigore il 1 agosto 2024, ma con diverse disposizioni programmate per entrare in vigore successivamente. La maggior parte delle disposizioni entrerà in vigore il 2 agosto 2026.

Il primo impatto della legge sull’IA dell’UE non riguarderà solo le aziende con sede nell’UE, ma anche le aziende straniere. Questo perché l’Articolo 2 della legge stabilisce il suo effetto extraterritoriale, in cui l’output di un sistema di IA è utilizzato all’interno dell’UE.

Si prevede inoltre che la legge sull’IA dell’UE possa diventare un benchmark normativo globale, simile al GDPR. Alcuni potrebbero quindi cercare di armonizzarsi con la legge sull’IA dell’UE come questione di buona prassi e di gestione del rischio.

Approccio basato sul rischio

La legge sull’IA dell’UE adotta un approccio basato sul rischio adattato al livello di rischio del sistema:

  • Sistemi di IA a rischio inaccettabile, che utilizzano pratiche manipolative, sfruttative, di controllo sociale o di sorveglianza, sono ora vietati.
  • Sistemi di IA ad alto rischio, che creano un rischio significativo di danno alla salute, sicurezza o diritti fondamentali delle persone, sono regolamentati.
  • Sistemi di IA a rischio limitato, come chatbot o deepfake, sono soggetti a obblighi di trasparenza.
  • Sistemi di IA a rischio minimo, come i filtri antispam, non sono regolamentati dalla legge sull’IA dell’UE ma sono comunque soggetti a normative applicabili come il GDPR.

La Commissione Europea ha pubblicato due set di linee guida sulla definizione dei sistemi di IA e sulle pratiche di IA vietate per aumentare la chiarezza giuridica e garantire un’applicazione uniforme della legge sull’IA dell’UE.

Tuttavia, queste ampie linee guida sono “non vincolanti” e l’interpretazione della legge sull’IA dell’UE è una questione per la Corte di Giustizia dell’Unione Europea. Resta da vedere quanto ampiamente sarà interpretata la legge sull’IA dell’UE.

Conseguenze per le aziende

In pratica, le aziende del Regno Unito che commerciano nell’UE, siano esse fornitori, utilizzatori, importatori, distributori o rappresentanti di sistemi di IA, devono assicurarsi di non utilizzare sistemi di IA che forniscono punteggi sociali per le persone fisiche o che effettuano scraping indiscriminato di immagini facciali per popolare database di riconoscimento facciale. Questi sistemi sono ora vietati nell’UE.

Le penali per non conformità sono sostanziali, con le violazioni relative all’IA vietata che possono comportare il 7% del fatturato annuale globale dell’offensore o 35 milioni di euro, a seconda di quale sia maggiore.

Eccezioni e incentivi all’innovazione

Ci sono eccezioni alla legge sull’IA, in particolare riguardo ai sistemi di IA sviluppati per uso privato, per scopi di ricerca scientifica e sviluppo, o se sono rilasciati sotto licenze gratuite e open-source (tranne quando qualificati come ad alto rischio). Inoltre, la legge sull’IA supporta l’innovazione consentendo la creazione di sandbox regolatorie per l’IA (che forniscono un ambiente controllato per favorire l’innovazione permettendo lo sviluppo, la formazione e il collaudo di sistemi di IA innovativi) e fornendo un quadro per il collaudo di sistemi di IA ad alto rischio in condizioni reali. Sono state inoltre adottate misure specifiche per le piccole e medie imprese e le start-up per aiutarle a entrare nel mercato dell’IA e diventare competitor delle aziende già consolidate.

Resta da vedere se questo sarà sufficiente per rendere l’UE una meta attraente per la ricerca e le start-up nel campo dell’IA o se queste varie disposizioni soffocheranno l’innovazione. Si potrebbe affermare che un tale quadro giuridico per lo sviluppo e l’uso dei sistemi di IA in conformità con i valori e i diritti fondamentali dell’UE possa aiutare ad aumentare la fiducia degli utenti nell’IA, il che aumenterà la domanda in questo campo.

Per stimolare l’innovazione, il presidente francese Emmanuel Macron ha annunciato circa 100 miliardi di euro in investimenti legati all’IA durante il recente summit di Parigi. Tuttavia, qualsiasi tipo di incentivo non solleverà le aziende dall’onere di conformarsi non solo alla legge sull’IA dell’UE, ma anche ad altre normative europee applicabili. Ad esempio, qualsiasi sistema di IA che elabori dati personali dovrà conformarsi al GDPR. A questo proposito, l’Autorità francese per la protezione dei dati (CNIL) ha già pubblicato raccomandazioni per garantire la conformità al GDPR.

Resta da vedere se l’UE emergerà come un vero innovatore nell’IA, ma la corsa per guidare la rivoluzione dell’IA è ampiamente considerata come una gara tra due cavalli: gli Stati Uniti e la Cina.

More Insights

Regolamentazione dell’IA: verso un futuro più sicuro nel settore assicurativo

Il Chartered Insurance Institute (CII) ha richiesto chiari quadri di responsabilità e una strategia di competenze a livello settoriale per guidare l'uso dell'intelligenza artificiale (AI) nei servizi...

Regolamentazione dell’IA nel settore MedTech in APAC

La regolamentazione dell'intelligenza artificiale (AI) nella regione Asia-Pacifico è ancora agli inizi, principalmente governata da normative esistenti progettate per altre tecnologie. Nonostante ciò...

Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Nel primo semestre del 2025, New York ha iniziato a regolare l'intelligenza artificiale (AI) a livello statale con l'introduzione di leggi per affrontare la discriminazione algoritmica, in particolare...

Gestire i Rischi dell’Intelligenza Artificiale: Un Approccio Strategico

L'articolo discute l'importanza della gestione dei rischi nell'intelligenza artificiale, evidenziando che il rischio AI può derivare da dati errati o da attacchi esterni. Utilizzare un framework di...

Comprendere l’Atto sull’Intelligenza Artificiale dell’UE

L'Unione Europea ha introdotto l'Artificial Intelligence Act (AI Act), una regolamentazione storica progettata per gestire i rischi e le opportunità delle tecnologie AI in Europa. Questo articolo...

Legge Fondamentale sull’IA in Corea: Un Nuovo Orizzonte Normativo

La Corea del Sud ha adottato la Legge di Base sull'Intelligenza Artificiale, diventando il primo mercato asiatico a stabilire un quadro normativo completo per l'IA. Questa legislazione avrà un impatto...

Intelligenza Artificiale e Regolamentazione: Preparati al Cambiamento

L'atto sull'IA dell'UE e il DORA stanno creando una nuova complessità per le entità finanziarie, richiedendo un approccio basato sul rischio. È fondamentale quantificare l'impatto finanziario delle...

Regolamentare l’IA: Sfide e Opportunità nell’Atlantico

L'intelligenza artificiale (IA) è diventata una delle forze tecnologiche più decisive del nostro tempo, con il potere di rimodellare le economie e le società. Questo capitolo esplora il momento...

Strategia Europea per l’Intelligenza Artificiale: Verso le Gigafabbriche

La Commissione Europea vuole ridurre le barriere per l'implementazione dell'intelligenza artificiale, promuovendo la costruzione di "gigafabbriche AI" per migliorare l'infrastruttura dei centri dati...