Cosa devono sapere i costruttori di macchine riguardo al Regolamento AI dell’UE
Il Regolamento AI dell’UE, pubblicato lo scorso anno, potrebbe avere implicazioni significative per i costruttori di macchine. Questo regolamento mira a promuovere l’adozione di sistemi di intelligenza artificiale (IA) che siano centrati sull’essere umano e affidabili, proteggendo al contempo i diritti fondamentali e i principi etici.
La legislazione definisce quattro livelli di rischio per i sistemi di IA e vieta determinate tipologie di sistemi IA che presentano rischi inaccettabili, come quelli che sfruttano le vulnerabilità degli individui o utilizzano tecniche subliminali per distorcere i comportamenti.
Data chiave
Il 1 agosto 2024, il Regolamento sull’Intelligenza Artificiale (UE) 2024/1689 è entrato in vigore come Regolamento AI, con la maggior parte della legislazione che si applicherà dal 2 agosto 2026. Tuttavia, una data di particolare interesse per i costruttori di macchine è il 2 agosto 2027, poiché è quando i sistemi di IA ad alto rischio utilizzati come componenti di sicurezza diventeranno regolamentati.
Obblighi di conformità
Prima che un sistema di IA possa essere immesso sul mercato o utilizzato per la prima volta nell’UE, deve essere marchiato CE. Questo è valido sia che il sistema di IA venga fornito da solo o incorporato all’interno di un prodotto come una macchina. Se un sistema di IA è incorporato in un prodotto, il produttore del prodotto diventa responsabile del sistema di IA e assume gli obblighi di un fornitore.
Il Regolamento AI differenzia tra fornitori e utilizzatori. Ad esempio, un costruttore di macchine sarebbe il fornitore di un sistema di IA, mentre l’utente finale sarebbe l’utilizzatore.
Tipologie di sistemi di IA
Il Regolamento AI definisce diverse categorie di sistemi di IA. Per i costruttori di macchine, il più rilevante è il sistema di IA ad alto rischio utilizzato come componente di sicurezza. I “sistemi di IA ad alto rischio” sono quelli con il potenziale di avere un impatto significativo sulla salute, sicurezza o diritti fondamentali delle persone.
Procedura di valutazione di conformità
Il Regolamento stabilisce procedure per la valutazione di conformità, comprese sia l’auto-certificazione che l’uso di organismi di valutazione di terza parte (Organismi Notificati). Fortunatamente, l’auto-certificazione dovrebbe essere adeguata per i sistemi di IA utilizzati come componenti di sicurezza. Se un Organismo Notificato certifica la conformità, la certificazione scade dopo cinque anni e il sistema di IA dovrà essere riesaminato e ri-certificato.
Un modo semplice per dimostrare la conformità ai requisiti del Regolamento AI è applicare standard armonizzati al Regolamento. Attualmente, gli standard non sono ancora stati redatti o armonizzati, ma dovrebbero essere pronti per la fine di aprile 2025.
Dichiarazione di conformità
Una volta che un sistema di IA è stato valutato come conforme ai requisiti del Regolamento, può essere redatta una Dichiarazione di Conformità (DoC). Se un sistema di IA è incorporato in un altro prodotto come una macchina, la DoC può essere incorporata nella DoC della Direttiva Macchine.
Per indicare la conformità dichiarata, i sistemi di IA ad alto rischio devono avere un marchio CE fisico applicato. Dove ciò non è possibile, il marchio deve essere applicato all’imballaggio o alla documentazione accompagnatoria.
Obblighi continui
Dopo che un sistema di IA ad alto rischio è stato immesso sul mercato, il fornitore è obbligato a effettuare un monitoraggio post-mercato per tutta la durata del sistema. Se si verificano incidenti gravi, questi devono essere segnalati all’autorità di sorveglianza del mercato competente.
I sistemi di IA ad alto rischio utilizzati come componenti di sicurezza devono avere la registrazione automatica degli eventi, che assisterà nella sorveglianza post-mercato.
Se un sistema di IA subisce modifiche sostanziali, la sua conformità deve essere riesaminata. “Modifica sostanziale” include l’uso di un sistema di IA per uno scopo per il quale non era originariamente previsto.
Il Regolamento AI prevede regole sui penalità per non conformità, comprese le omissioni di informazioni richieste dalle autorità. Le sanzioni possono comportare multe fino a €15 milioni o il 3% del fatturato annuale mondiale di un’organizzazione, e le multe relative a sistemi di IA proibiti sono significativamente più elevate.