L’atto sull’IA dell’UE: innovazione o freno?

Una spada a doppio taglio: la legge sull’IA dell’UE soffoca o incoraggia l’innovazione tecnologica?

La recente summit di Parigi dei leader globali per discutere l’intelligenza artificiale ha riportato l’IA sotto i riflettori. Il Paris Artificial Intelligence Action Summit di febbraio 2025 ha rappresentato un tentativo di rafforzare l’azione internazionale a favore di un’IA più sostenibile al servizio del progresso collettivo e dell’interesse generale.

Inoltre, il 2 febbraio 2025, l’approccio normativo cauto dell’UE è stato dimostrato con l’entrata in vigore dei primi aspetti della legge sull’IA dell’UE. Questa legge comporta un divieto assoluto per i sistemi di IA che presentano un “rischio inaccettabile”, indipendentemente dal fatto che questi sistemi siano stati immessi sul mercato prima o dopo tale data.

Obiettivi della legge sull’IA dell’UE

Lo scopo della legge sull’IA dell’UE è stabilire un quadro giuridico uniforme per lo sviluppo e l’uso dei sistemi di IA, garantendo al contempo un elevato livello di protezione degli interessi pubblici, tra cui la salute, la sicurezza e i diritti fondamentali.

Il contrasto tra l’approccio dell’UE e quello degli Stati Uniti è evidente. Durante il summit di Parigi, il vicepresidente statunitense JD Vance ha affermato: “Crediamo che una regolamentazione eccessiva del settore dell’IA potrebbe soffocare un’industria trasformativa proprio quando sta decollando”.

Impatto della legge sull’IA

La legge sull’IA dell’UE è entrata in vigore il 1 agosto 2024, ma con diverse disposizioni programmate per entrare in vigore successivamente. La maggior parte delle disposizioni entrerà in vigore il 2 agosto 2026.

Il primo impatto della legge sull’IA dell’UE non riguarderà solo le aziende con sede nell’UE, ma anche le aziende straniere. Questo perché l’Articolo 2 della legge stabilisce il suo effetto extraterritoriale, in cui l’output di un sistema di IA è utilizzato all’interno dell’UE.

Si prevede inoltre che la legge sull’IA dell’UE possa diventare un benchmark normativo globale, simile al GDPR. Alcuni potrebbero quindi cercare di armonizzarsi con la legge sull’IA dell’UE come questione di buona prassi e di gestione del rischio.

Approccio basato sul rischio

La legge sull’IA dell’UE adotta un approccio basato sul rischio adattato al livello di rischio del sistema:

  • Sistemi di IA a rischio inaccettabile, che utilizzano pratiche manipolative, sfruttative, di controllo sociale o di sorveglianza, sono ora vietati.
  • Sistemi di IA ad alto rischio, che creano un rischio significativo di danno alla salute, sicurezza o diritti fondamentali delle persone, sono regolamentati.
  • Sistemi di IA a rischio limitato, come chatbot o deepfake, sono soggetti a obblighi di trasparenza.
  • Sistemi di IA a rischio minimo, come i filtri antispam, non sono regolamentati dalla legge sull’IA dell’UE ma sono comunque soggetti a normative applicabili come il GDPR.

La Commissione Europea ha pubblicato due set di linee guida sulla definizione dei sistemi di IA e sulle pratiche di IA vietate per aumentare la chiarezza giuridica e garantire un’applicazione uniforme della legge sull’IA dell’UE.

Tuttavia, queste ampie linee guida sono “non vincolanti” e l’interpretazione della legge sull’IA dell’UE è una questione per la Corte di Giustizia dell’Unione Europea. Resta da vedere quanto ampiamente sarà interpretata la legge sull’IA dell’UE.

Conseguenze per le aziende

In pratica, le aziende del Regno Unito che commerciano nell’UE, siano esse fornitori, utilizzatori, importatori, distributori o rappresentanti di sistemi di IA, devono assicurarsi di non utilizzare sistemi di IA che forniscono punteggi sociali per le persone fisiche o che effettuano scraping indiscriminato di immagini facciali per popolare database di riconoscimento facciale. Questi sistemi sono ora vietati nell’UE.

Le penali per non conformità sono sostanziali, con le violazioni relative all’IA vietata che possono comportare il 7% del fatturato annuale globale dell’offensore o 35 milioni di euro, a seconda di quale sia maggiore.

Eccezioni e incentivi all’innovazione

Ci sono eccezioni alla legge sull’IA, in particolare riguardo ai sistemi di IA sviluppati per uso privato, per scopi di ricerca scientifica e sviluppo, o se sono rilasciati sotto licenze gratuite e open-source (tranne quando qualificati come ad alto rischio). Inoltre, la legge sull’IA supporta l’innovazione consentendo la creazione di sandbox regolatorie per l’IA (che forniscono un ambiente controllato per favorire l’innovazione permettendo lo sviluppo, la formazione e il collaudo di sistemi di IA innovativi) e fornendo un quadro per il collaudo di sistemi di IA ad alto rischio in condizioni reali. Sono state inoltre adottate misure specifiche per le piccole e medie imprese e le start-up per aiutarle a entrare nel mercato dell’IA e diventare competitor delle aziende già consolidate.

Resta da vedere se questo sarà sufficiente per rendere l’UE una meta attraente per la ricerca e le start-up nel campo dell’IA o se queste varie disposizioni soffocheranno l’innovazione. Si potrebbe affermare che un tale quadro giuridico per lo sviluppo e l’uso dei sistemi di IA in conformità con i valori e i diritti fondamentali dell’UE possa aiutare ad aumentare la fiducia degli utenti nell’IA, il che aumenterà la domanda in questo campo.

Per stimolare l’innovazione, il presidente francese Emmanuel Macron ha annunciato circa 100 miliardi di euro in investimenti legati all’IA durante il recente summit di Parigi. Tuttavia, qualsiasi tipo di incentivo non solleverà le aziende dall’onere di conformarsi non solo alla legge sull’IA dell’UE, ma anche ad altre normative europee applicabili. Ad esempio, qualsiasi sistema di IA che elabori dati personali dovrà conformarsi al GDPR. A questo proposito, l’Autorità francese per la protezione dei dati (CNIL) ha già pubblicato raccomandazioni per garantire la conformità al GDPR.

Resta da vedere se l’UE emergerà come un vero innovatore nell’IA, ma la corsa per guidare la rivoluzione dell’IA è ampiamente considerata come una gara tra due cavalli: gli Stati Uniti e la Cina.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...