La regolamentazione dell’intelligenza artificiale nell’Unione Europea: cosa cambia con l’AI Act?
L’Unione Europea è diventata la prima al mondo a introdurre regolamenti completi sull’intelligenza artificiale – l’AI Act. Ma queste nuove norme affrontano efficacemente le sfide poste dallo sviluppo dell’IA? E quale impatto avranno sulle imprese e sugli utenti?
L’intelligenza artificiale (IA) sta influenzando sempre più vari aspetti della vita e dell’economia, e il suo sviluppo richiede regolamentazioni appropriate. Nessuno dubita che l’IA stia cambiando dinamicamente il panorama economico e sociale. Grazie a algoritmi avanzati, l’IA consente alle organizzazioni di fare previsioni migliori, ottimizzare i processi e gestire le risorse in modo efficiente, traducendosi in un chiaro vantaggio competitivo. L’IA viene applicata in praticamente ogni dominio dell’attività umana – compresi quelli sensibili, come la sanità, l’istruzione, l’energia, il trasporto e l’agricoltura – supportando l’innovazione e lo sviluppo sostenibile in questi settori.
Oltre a offrire numerosi vantaggi, la tecnologia è anche soggetta a determinati rischi. A seconda del suo utilizzo, l’IA può rappresentare minacce per l’interesse pubblico e i diritti fondamentali, causando effetti negativi tangibili e intangibili, tra cui rischi economici, discriminatori, sociali o psicologici. Con l’importanza sempre crescente dell’IA, è diventato cruciale sviluppare regolamenti appropriati che bilancino l’innovazione con la protezione dei diritti dei cittadini.
Il ruolo dell’AI Act
In risposta a queste sfide, l’Unione Europea ha adottato il Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024, che stabilisce norme armonizzate sull’intelligenza artificiale e modifica vari regolamenti e direttive esistenti. L’AI Act rappresenta il primo quadro giuridico completo al mondo per l’IA.
Il regolamento mira a garantire un utilizzo sicuro, trasparente ed etico dei sistemi di IA, sostenendo al contempo l’innovazione e lo sviluppo tecnologico in linea con i valori comuni dell’UE. L’AI Act è entrato in vigore il 1° agosto 2024 e sarà pienamente applicabile due anni dopo, ovvero dal 2 agosto 2026, con alcune eccezioni:
- Le proibizioni e gli obblighi di alfabetizzazione sull’IA sono entrati in vigore il 2 febbraio 2025.
- Le norme di governance e gli obblighi per i modelli di IA di uso generale diventeranno applicabili il 2 agosto 2025.
- Le regole per i sistemi di IA ad alto rischio – integrati in prodotti regolamentati – hanno un periodo di transizione esteso fino al 2 agosto 2027.
Scopo e importanza dell’AI Act
L’AI Act ha l’obiettivo di ridurre i rischi associati all’uso dell’intelligenza artificiale, promuovendo al contempo i suoi potenziali benefici per l’economia e la società. L’Unione Europea suddivide l’uso dell’IA in quattro livelli di rischio per determinare il trattamento normativo, consentendo agli utenti e alle imprese di allineare meglio le loro operazioni con i requisiti normativi.
Il regolamento definisce quattro livelli di rischio per i sistemi di intelligenza artificiale, come illustrato nella piramide seguente:
… (inserire grafico sulla piramide dei rischi)
A seconda dell’esito dell’analisi del rischio, l’imprenditore dovrà determinare le normative dell’AI Act applicabili nel caso specifico, con opzioni che includono:
- Proibizione dei sistemi di IA con rischi inaccettabili, come il monitoraggio biometrico di massa, la manipolazione psicologica o il punteggio sociale.
- Regolamentazione rigorosa dei sistemi di IA ad alto rischio, comprendente soluzioni utilizzate in medicina, reclutamento, istruzione o applicazione della legge.
- Obbligo di trasparenza per i sistemi di IA che interagiscono con gli esseri umani, come chatbots o IA generativa.
- Norme per i modelli di intelligenza artificiale di uso generale, inclusi, tra gli altri, l’obbligo di etichettare i contenuti generati dall’IA.
Chi è interessato dalla nuova regolamentazione?
La regolamentazione si applica ai fornitori, produttori e sviluppatori di sistemi di IA, nonché alle organizzazioni e istituzioni che impiegano l’IA nelle loro operazioni, indipendentemente dal fatto che tali fornitori siano stabiliti nell’Unione o in un paese terzo, purché “l’output prodotto dal sistema di IA venga utilizzato nell’Unione”. L’AI Act si applica quindi a una vasta gamma di settori, tra cui:
- Finanza – sistemi di scoring creditizio e analisi del rischio d’investimento.
- Sanità – diagnosi, analisi di immagini mediche e gestione dei record.
- Istruzione – algoritmi che valutano le prestazioni degli studenti o raccomandano percorsi educativi.
- Pubblica amministrazione – strumenti per automatizzare decisioni ufficiali o analisi di dati statistici.
- Commercio e marketing – raccomandazioni di prodotti e analisi delle preferenze dei consumatori.
L’AI Act e i deepfake
L’AI Act offre anche un’opportunità per combattere efficacemente i deepfake, definendo chiaramente il termine come “contenuti generati o manipolati da IA che somigliano a persone, oggetti, luoghi o eventi esistenti e che apparirebbero falsamente autentici”. Gli utenti di un sistema di IA che genera o manipola contenuti devono dichiarare che il contenuto è stato generato o manipolato artificialmente.
Inoltre, l’AI Act vieta generalmente la commercializzazione di sistemi di IA progettati per manipolare e ingannare i destinatari in modi che possono causare danni seri.
Un’opportunità o una sfida?
Pur imponendo nuove obbligazioni alle aziende e alle istituzioni, l’AI Act ha il potenziale di portare a un utilizzo dell’intelligenza artificiale in modo più responsabile. Con le regolamentazioni dell’AI Act, l’Unione Europea mira a garantire che venga mantenuto un giusto equilibrio tra lo sviluppo dell’innovazione e la protezione dei diritti dei cittadini.
Indipendentemente dall’ambito del loro uso, è necessaria un’analisi approfondita delle soluzioni di IA in ogni organizzazione, inclusa un’adeguata verifica delle tecnologie utilizzate e l’implementazione di nuove procedure di gestione del rischio. Per molte aziende, ciò si traduce senza dubbio in costi aggiuntivi.
In caso di soluzioni non conformi alle nuove regolazioni, l’azienda è tenuta a ritirarle entro sei mesi dall’entrata in vigore della regolazione. Per i sistemi ad alto rischio, è previsto un periodo di transizione di due anni per adottare misure adeguate.
È sicuramente necessario iniziare a lavorare per rendere i propri sistemi di IA conformi all’AI Act per evitare sanzioni previste dal regolamento.
In generale, tuttavia, come dovremmo tutti sapere, quando si tratta di IA, il più interessante deve ancora venire!