Consultazione mirata degli stakeholder sulla classificazione dei sistemi di IA ad alto rischio
La presente consultazione è rivolta a stakeholder di diverse categorie, tra cui fornitori e utilizzatori di sistemi di IA (ad alto rischio), altre organizzazioni industriali, accademia, esperti indipendenti, organizzazioni della società civile e autorità pubbliche.
Il Regolamento sull’Intelligenza Artificiale
Il Regolamento sull’Intelligenza Artificiale (il “AI Act”), entrato in vigore il 1° agosto 2024, crea un mercato unico e regole armonizzate per un’Intelligenza Artificiale (IA) affidabile e centrata sull’essere umano nell’UE. Mira a promuovere l’innovazione e l’adozione dell’IA, garantendo al contempo un alto livello di protezione della salute, della sicurezza e dei diritti fondamentali, inclusi la democrazia e lo stato di diritto.
Il AI Act adotta un approccio basato sul rischio, classificando i sistemi di IA in diverse categorie di rischio, una delle quali è quella dei sistemi di IA ad alto rischio (Capitolo III del AI Act). Le obbligazioni pertinenti per tali sistemi saranno applicabili due anni dopo l’entrata in vigore del AI Act, a partire dal 2 agosto 2026.
Classificazione dei Sistemi di IA ad Alto Rischio
Il AI Act distingue tra due categorie di sistemi di IA considerati ad alto rischio stabilite negli articoli 6(1) e 6(2). L’articolo 6(1) copre i sistemi di IA integrati come componenti di sicurezza in prodotti o che sono a loro volta prodotti coperti dalla legislazione dell’Unione nell’allegato I, che potrebbero avere un impatto negativo sulla salute e sulla sicurezza delle persone. L’articolo 6(2) copre i sistemi di IA che, in base al loro scopo previsto, sono considerati a rischio significativo per la salute, la sicurezza o i diritti fondamentali.
L’AI Act elenca otto aree in cui i sistemi di IA potrebbero comportare un rischio significativo per la salute, la sicurezza o i diritti fondamentali nell’allegato III e, all’interno di ciascuna area, elenca casi d’uso specifici da classificare come ad alto rischio.
Obblighi per i Sistemi di IA ad Alto Rischio
I sistemi di IA classificati come ad alto rischio devono essere sviluppati e progettati per soddisfare i requisiti stabiliti nel Capitolo III Sezione 2, in relazione a dati e governance dei dati, documentazione e tenuta dei registri, trasparenza e fornitura di informazioni agli utenti, supervisione umana, robustezza, accuratezza e sicurezza.
I fornitori di sistemi di IA ad alto rischio devono garantire che il loro sistema di IA ad alto rischio sia conforme a tali requisiti e devono conformarsi a una serie di obblighi stabiliti nel Capitolo III Sezione 3, in particolare l’obbligo di implementare un sistema di gestione della qualità e garantire che il sistema di IA ad alto rischio sia sottoposto a una valutazione di conformità prima di essere immesso sul mercato o messo in servizio.
Consultazione e Linee Guida
La Commissione è tenuta a fornire linee guida specificando l’implementazione pratica dell’articolo 6, che stabilisce le regole per la classificazione ad alto rischio, entro il 2 febbraio 2026. Queste linee guida dovrebbero essere accompagnate da un elenco completo di esempi pratici di casi d’uso di sistemi di IA ad alto rischio e non ad alto rischio.
Il fine della presente consultazione mirata è raccogliere input dagli stakeholder su esempi pratici di sistemi di IA e questioni da chiarire nelle linee guida della Commissione sulla classificazione dei sistemi di IA ad alto rischio e future linee guida sui requisiti e obblighi ad alto rischio, nonché sulle responsabilità lungo la catena del valore dell’IA.
Non tutte le domande potrebbero essere pertinenti per tutti gli stakeholder; i partecipanti possono rispondere solo alle sezioni e alle domande di loro interesse. Si incoraggiano i rispondenti a fornire spiegazioni e casi pratici a supporto della praticità delle linee guida.
La consultazione sarà aperta per 6 settimane dal 6 giugno al 18 luglio 2025. Il questionario per questa consultazione è strutturato in 5 sezioni con diverse domande.
Struttura del Questionario
Relativamente alle sezioni 1 e 2, ai rispondenti verrà chiesto di fornire risposte in base alle parti del sondaggio per le quali hanno espresso interesse nella domanda 13, mentre tutti i partecipanti sono gentilmente invitati a fornire input per le sezioni 3, 4 e 5.
- Sezione 1: Domande relative alle regole di classificazione dei sistemi di IA ad alto rischio negli articoli 6(1) e allegato I del AI Act.
- Sezione 2: Domande relative alla classificazione dei sistemi di IA ad alto rischio negli articoli 6(2) e allegato III del AI Act.
- Sezione 3: Domande generali sulla classificazione ad alto rischio.
- Sezione 4: Domande relative ai requisiti e obblighi per i sistemi di IA ad alto rischio.
- Sezione 5: Domande relative alla necessità di emendare l’elenco dei casi d’uso ad alto rischio nell’allegato III.
Tutti i contributi a questa consultazione potrebbero essere resi pubblici. Pertanto, si prega di non condividere informazioni riservate nel proprio contributo. I dati personali saranno anonimizzati.
La Commissione pubblicherà un riepilogo dei risultati della consultazione, basato su dati aggregati e senza citare direttamente i rispondenti.