Comprendere l’Impatto della Legge AI dell’UE sui Costruttori di Macchine

Cosa devono sapere i costruttori di macchine riguardo al Regolamento AI dell’UE

Il Regolamento AI dell’UE, pubblicato lo scorso anno, potrebbe avere implicazioni significative per i costruttori di macchine. Questo regolamento mira a promuovere l’adozione di sistemi di intelligenza artificiale (IA) che siano centrati sull’essere umano e affidabili, proteggendo al contempo i diritti fondamentali e i principi etici.

La legislazione definisce quattro livelli di rischio per i sistemi di IA e vieta determinate tipologie di sistemi IA che presentano rischi inaccettabili, come quelli che sfruttano le vulnerabilità degli individui o utilizzano tecniche subliminali per distorcere i comportamenti.

Data chiave

Il 1 agosto 2024, il Regolamento sull’Intelligenza Artificiale (UE) 2024/1689 è entrato in vigore come Regolamento AI, con la maggior parte della legislazione che si applicherà dal 2 agosto 2026. Tuttavia, una data di particolare interesse per i costruttori di macchine è il 2 agosto 2027, poiché è quando i sistemi di IA ad alto rischio utilizzati come componenti di sicurezza diventeranno regolamentati.

Obblighi di conformità

Prima che un sistema di IA possa essere immesso sul mercato o utilizzato per la prima volta nell’UE, deve essere marchiato CE. Questo è valido sia che il sistema di IA venga fornito da solo o incorporato all’interno di un prodotto come una macchina. Se un sistema di IA è incorporato in un prodotto, il produttore del prodotto diventa responsabile del sistema di IA e assume gli obblighi di un fornitore.

Il Regolamento AI differenzia tra fornitori e utilizzatori. Ad esempio, un costruttore di macchine sarebbe il fornitore di un sistema di IA, mentre l’utente finale sarebbe l’utilizzatore.

Tipologie di sistemi di IA

Il Regolamento AI definisce diverse categorie di sistemi di IA. Per i costruttori di macchine, il più rilevante è il sistema di IA ad alto rischio utilizzato come componente di sicurezza. I “sistemi di IA ad alto rischio” sono quelli con il potenziale di avere un impatto significativo sulla salute, sicurezza o diritti fondamentali delle persone.

Procedura di valutazione di conformità

Il Regolamento stabilisce procedure per la valutazione di conformità, comprese sia l’auto-certificazione che l’uso di organismi di valutazione di terza parte (Organismi Notificati). Fortunatamente, l’auto-certificazione dovrebbe essere adeguata per i sistemi di IA utilizzati come componenti di sicurezza. Se un Organismo Notificato certifica la conformità, la certificazione scade dopo cinque anni e il sistema di IA dovrà essere riesaminato e ri-certificato.

Un modo semplice per dimostrare la conformità ai requisiti del Regolamento AI è applicare standard armonizzati al Regolamento. Attualmente, gli standard non sono ancora stati redatti o armonizzati, ma dovrebbero essere pronti per la fine di aprile 2025.

Dichiarazione di conformità

Una volta che un sistema di IA è stato valutato come conforme ai requisiti del Regolamento, può essere redatta una Dichiarazione di Conformità (DoC). Se un sistema di IA è incorporato in un altro prodotto come una macchina, la DoC può essere incorporata nella DoC della Direttiva Macchine.

Per indicare la conformità dichiarata, i sistemi di IA ad alto rischio devono avere un marchio CE fisico applicato. Dove ciò non è possibile, il marchio deve essere applicato all’imballaggio o alla documentazione accompagnatoria.

Obblighi continui

Dopo che un sistema di IA ad alto rischio è stato immesso sul mercato, il fornitore è obbligato a effettuare un monitoraggio post-mercato per tutta la durata del sistema. Se si verificano incidenti gravi, questi devono essere segnalati all’autorità di sorveglianza del mercato competente.

I sistemi di IA ad alto rischio utilizzati come componenti di sicurezza devono avere la registrazione automatica degli eventi, che assisterà nella sorveglianza post-mercato.

Se un sistema di IA subisce modifiche sostanziali, la sua conformità deve essere riesaminata. “Modifica sostanziale” include l’uso di un sistema di IA per uno scopo per il quale non era originariamente previsto.

Il Regolamento AI prevede regole sui penalità per non conformità, comprese le omissioni di informazioni richieste dalle autorità. Le sanzioni possono comportare multe fino a €15 milioni o il 3% del fatturato annuale mondiale di un’organizzazione, e le multe relative a sistemi di IA proibiti sono significativamente più elevate.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...