Comprendere l’Impatto della Legge AI dell’UE sui Costruttori di Macchine

Cosa devono sapere i costruttori di macchine riguardo al Regolamento AI dell’UE

Il Regolamento AI dell’UE, pubblicato lo scorso anno, potrebbe avere implicazioni significative per i costruttori di macchine. Questo regolamento mira a promuovere l’adozione di sistemi di intelligenza artificiale (IA) che siano centrati sull’essere umano e affidabili, proteggendo al contempo i diritti fondamentali e i principi etici.

La legislazione definisce quattro livelli di rischio per i sistemi di IA e vieta determinate tipologie di sistemi IA che presentano rischi inaccettabili, come quelli che sfruttano le vulnerabilità degli individui o utilizzano tecniche subliminali per distorcere i comportamenti.

Data chiave

Il 1 agosto 2024, il Regolamento sull’Intelligenza Artificiale (UE) 2024/1689 è entrato in vigore come Regolamento AI, con la maggior parte della legislazione che si applicherà dal 2 agosto 2026. Tuttavia, una data di particolare interesse per i costruttori di macchine è il 2 agosto 2027, poiché è quando i sistemi di IA ad alto rischio utilizzati come componenti di sicurezza diventeranno regolamentati.

Obblighi di conformità

Prima che un sistema di IA possa essere immesso sul mercato o utilizzato per la prima volta nell’UE, deve essere marchiato CE. Questo è valido sia che il sistema di IA venga fornito da solo o incorporato all’interno di un prodotto come una macchina. Se un sistema di IA è incorporato in un prodotto, il produttore del prodotto diventa responsabile del sistema di IA e assume gli obblighi di un fornitore.

Il Regolamento AI differenzia tra fornitori e utilizzatori. Ad esempio, un costruttore di macchine sarebbe il fornitore di un sistema di IA, mentre l’utente finale sarebbe l’utilizzatore.

Tipologie di sistemi di IA

Il Regolamento AI definisce diverse categorie di sistemi di IA. Per i costruttori di macchine, il più rilevante è il sistema di IA ad alto rischio utilizzato come componente di sicurezza. I “sistemi di IA ad alto rischio” sono quelli con il potenziale di avere un impatto significativo sulla salute, sicurezza o diritti fondamentali delle persone.

Procedura di valutazione di conformità

Il Regolamento stabilisce procedure per la valutazione di conformità, comprese sia l’auto-certificazione che l’uso di organismi di valutazione di terza parte (Organismi Notificati). Fortunatamente, l’auto-certificazione dovrebbe essere adeguata per i sistemi di IA utilizzati come componenti di sicurezza. Se un Organismo Notificato certifica la conformità, la certificazione scade dopo cinque anni e il sistema di IA dovrà essere riesaminato e ri-certificato.

Un modo semplice per dimostrare la conformità ai requisiti del Regolamento AI è applicare standard armonizzati al Regolamento. Attualmente, gli standard non sono ancora stati redatti o armonizzati, ma dovrebbero essere pronti per la fine di aprile 2025.

Dichiarazione di conformità

Una volta che un sistema di IA è stato valutato come conforme ai requisiti del Regolamento, può essere redatta una Dichiarazione di Conformità (DoC). Se un sistema di IA è incorporato in un altro prodotto come una macchina, la DoC può essere incorporata nella DoC della Direttiva Macchine.

Per indicare la conformità dichiarata, i sistemi di IA ad alto rischio devono avere un marchio CE fisico applicato. Dove ciò non è possibile, il marchio deve essere applicato all’imballaggio o alla documentazione accompagnatoria.

Obblighi continui

Dopo che un sistema di IA ad alto rischio è stato immesso sul mercato, il fornitore è obbligato a effettuare un monitoraggio post-mercato per tutta la durata del sistema. Se si verificano incidenti gravi, questi devono essere segnalati all’autorità di sorveglianza del mercato competente.

I sistemi di IA ad alto rischio utilizzati come componenti di sicurezza devono avere la registrazione automatica degli eventi, che assisterà nella sorveglianza post-mercato.

Se un sistema di IA subisce modifiche sostanziali, la sua conformità deve essere riesaminata. “Modifica sostanziale” include l’uso di un sistema di IA per uno scopo per il quale non era originariamente previsto.

Il Regolamento AI prevede regole sui penalità per non conformità, comprese le omissioni di informazioni richieste dalle autorità. Le sanzioni possono comportare multe fino a €15 milioni o il 3% del fatturato annuale mondiale di un’organizzazione, e le multe relative a sistemi di IA proibiti sono significativamente più elevate.

More Insights

Proteggere i dati: Rischi e responsabilità nell’uso dell’IA

L'uso di strumenti AI come ChatGPT e altri assistenti virtuali richiede attenzione riguardo alle informazioni condivise, specialmente quando si tratta di dati riservati o protetti. È fondamentale...

Legge sull’IA in Colorado: incertezze e sfide per le imprese

La legge pionieristica del Colorado sulla regolamentazione dell'intelligenza artificiale ha subito un aggiornamento fallito, lasciando i datori di lavoro con incertezze significative riguardo alla...

Strategie per la Conformità nell’Era dell’Intelligenza Artificiale

Il Summit sulla Governance e Strategia dell'IA esplorerà le sfide della conformità e della regolamentazione dell'IA attraverso diverse giurisdizioni. I partecipanti otterranno approfondimenti pratici...

Governanza dell’IA: Accelerare l’Innovazione Responsabile

L'intelligenza artificiale (AI) si sta sviluppando rapidamente e molte agenzie federali faticano a mantenere il passo con la governance. È fondamentale implementare modelli di governance adattivi e...

Governanza dell’IA: Le chiavi per il successo aziendale

L'intelligenza artificiale non è più un concetto futuristico, ma è diventata un fattore fondamentale per le aziende di tutto il mondo. Un Centro di Eccellenza per l'IA svolge un ruolo chiave...

Due leggi sull’IA: Direzioni opposte e sfide emergenti

La legislatura del Colorado ha respinto emendamenti all'Atto sull'Intelligenza Artificiale (CAIA), mentre lo Utah ha approvato emendamenti che includono una protezione per i chatbot di salute mentale...

Difficoltà di attuazione della legge sull’IA nell’UE: mancanza di fondi e competenze

Le difficoltà di finanziamento e la perdita di competenze rappresenteranno sfide per l'applicazione della legge sull'IA dell'UE, ha affermato l'esperto di politica digitale del Parlamento europeo, Kai...

Governare l’AI: Innovazione e Compliance Universitaria

Con l'integrazione dell'intelligenza artificiale (IA) nell'istruzione superiore, le università devono adottare pratiche di governance robuste per garantire un uso responsabile dell'IA. Le istituzioni...

Equilibrio tra innovazione e sicurezza nell’era dell’IA

Il congresista Ted Lieu si impegna a garantire che il futuro dell'intelligenza artificiale (AI) non sia solo intelligente, ma anche saggio. Sottolinea l'importanza di una regolamentazione che...