Consultazione sui Rischi: Classificazione dell’IA ad Alto Rischio

Consultazione mirata degli stakeholder sulla classificazione dei sistemi di IA ad alto rischio

La presente consultazione è rivolta a stakeholder di diverse categorie, tra cui fornitori e utilizzatori di sistemi di IA (ad alto rischio), altre organizzazioni industriali, accademia, esperti indipendenti, organizzazioni della società civile e autorità pubbliche.

Il Regolamento sull’Intelligenza Artificiale

Il Regolamento sull’Intelligenza Artificiale (il “AI Act”), entrato in vigore il 1° agosto 2024, crea un mercato unico e regole armonizzate per un’Intelligenza Artificiale (IA) affidabile e centrata sull’essere umano nell’UE. Mira a promuovere l’innovazione e l’adozione dell’IA, garantendo al contempo un alto livello di protezione della salute, della sicurezza e dei diritti fondamentali, inclusi la democrazia e lo stato di diritto.

Il AI Act adotta un approccio basato sul rischio, classificando i sistemi di IA in diverse categorie di rischio, una delle quali è quella dei sistemi di IA ad alto rischio (Capitolo III del AI Act). Le obbligazioni pertinenti per tali sistemi saranno applicabili due anni dopo l’entrata in vigore del AI Act, a partire dal 2 agosto 2026.

Classificazione dei Sistemi di IA ad Alto Rischio

Il AI Act distingue tra due categorie di sistemi di IA considerati ad alto rischio stabilite negli articoli 6(1) e 6(2). L’articolo 6(1) copre i sistemi di IA integrati come componenti di sicurezza in prodotti o che sono a loro volta prodotti coperti dalla legislazione dell’Unione nell’allegato I, che potrebbero avere un impatto negativo sulla salute e sulla sicurezza delle persone. L’articolo 6(2) copre i sistemi di IA che, in base al loro scopo previsto, sono considerati a rischio significativo per la salute, la sicurezza o i diritti fondamentali.

L’AI Act elenca otto aree in cui i sistemi di IA potrebbero comportare un rischio significativo per la salute, la sicurezza o i diritti fondamentali nell’allegato III e, all’interno di ciascuna area, elenca casi d’uso specifici da classificare come ad alto rischio.

Obblighi per i Sistemi di IA ad Alto Rischio

I sistemi di IA classificati come ad alto rischio devono essere sviluppati e progettati per soddisfare i requisiti stabiliti nel Capitolo III Sezione 2, in relazione a dati e governance dei dati, documentazione e tenuta dei registri, trasparenza e fornitura di informazioni agli utenti, supervisione umana, robustezza, accuratezza e sicurezza.

I fornitori di sistemi di IA ad alto rischio devono garantire che il loro sistema di IA ad alto rischio sia conforme a tali requisiti e devono conformarsi a una serie di obblighi stabiliti nel Capitolo III Sezione 3, in particolare l’obbligo di implementare un sistema di gestione della qualità e garantire che il sistema di IA ad alto rischio sia sottoposto a una valutazione di conformità prima di essere immesso sul mercato o messo in servizio.

Consultazione e Linee Guida

La Commissione è tenuta a fornire linee guida specificando l’implementazione pratica dell’articolo 6, che stabilisce le regole per la classificazione ad alto rischio, entro il 2 febbraio 2026. Queste linee guida dovrebbero essere accompagnate da un elenco completo di esempi pratici di casi d’uso di sistemi di IA ad alto rischio e non ad alto rischio.

Il fine della presente consultazione mirata è raccogliere input dagli stakeholder su esempi pratici di sistemi di IA e questioni da chiarire nelle linee guida della Commissione sulla classificazione dei sistemi di IA ad alto rischio e future linee guida sui requisiti e obblighi ad alto rischio, nonché sulle responsabilità lungo la catena del valore dell’IA.

Non tutte le domande potrebbero essere pertinenti per tutti gli stakeholder; i partecipanti possono rispondere solo alle sezioni e alle domande di loro interesse. Si incoraggiano i rispondenti a fornire spiegazioni e casi pratici a supporto della praticità delle linee guida.

La consultazione sarà aperta per 6 settimane dal 6 giugno al 18 luglio 2025. Il questionario per questa consultazione è strutturato in 5 sezioni con diverse domande.

Struttura del Questionario

Relativamente alle sezioni 1 e 2, ai rispondenti verrà chiesto di fornire risposte in base alle parti del sondaggio per le quali hanno espresso interesse nella domanda 13, mentre tutti i partecipanti sono gentilmente invitati a fornire input per le sezioni 3, 4 e 5.

  • Sezione 1: Domande relative alle regole di classificazione dei sistemi di IA ad alto rischio negli articoli 6(1) e allegato I del AI Act.
  • Sezione 2: Domande relative alla classificazione dei sistemi di IA ad alto rischio negli articoli 6(2) e allegato III del AI Act.
  • Sezione 3: Domande generali sulla classificazione ad alto rischio.
  • Sezione 4: Domande relative ai requisiti e obblighi per i sistemi di IA ad alto rischio.
  • Sezione 5: Domande relative alla necessità di emendare l’elenco dei casi d’uso ad alto rischio nell’allegato III.

Tutti i contributi a questa consultazione potrebbero essere resi pubblici. Pertanto, si prega di non condividere informazioni riservate nel proprio contributo. I dati personali saranno anonimizzati.

La Commissione pubblicherà un riepilogo dei risultati della consultazione, basato su dati aggregati e senza citare direttamente i rispondenti.

More Insights

Classifica il tuo sistema AI in pochi minuti

L'EU AI Act cambierà il modo in cui l'IA viene costruita, valutata e distribuita in Europa. Per facilitare la classificazione del rischio dei sistemi di intelligenza artificiale, è disponibile un...

Intelligenza artificiale e armonizzazione legale a Yokohama

L'Associazione Internazionale per la Protezione della Proprietà Intellettuale (AIPPI) si riunirà a Yokohama dal 13 al 16 settembre 2025, affrontando temi cruciali come l'intelligenza artificiale e il...

Legge sull’Intelligenza Artificiale in Colorado: Impatti e Responsabilità per le Aziende

La settimana scorsa, i legislatori del Colorado hanno tenuto una sessione speciale che ha portato a una decisione di posticipare l'implementazione della Colorado Artificial Intelligence Act (CAIA)...

Sorveglianza AI: Sicurezza e Privacy in Equilibrio

La sorveglianza guidata dall'IA offre vantaggi operativi reali, ma presenta anche rischi significativi per la privacy e le libertà civili. È fondamentale trovare un equilibrio umano che rispetti i...

AI Responsabile nel Settore Finanziario: Dalla Teoria alla Pratica

La discussione globale sull'intelligenza artificiale è entrata in una nuova fase, spostandosi verso la domanda su come utilizzare questi strumenti in modo responsabile, specialmente nei servizi...

Costruire AI di fiducia per un futuro sostenibile

La certificazione può trasformare la regolamentazione da un vincolo a un'opportunità, facilitando l'adozione di AI fidate e sostenibili. Con normative come l'AI Act dell'Unione Europea, le aziende che...

Intelligenza Artificiale Spiegabile: Costruire Fiducia nel Futuro

L'Intelligenza Artificiale Spiegabile (XAI) è essenziale per costruire fiducia, garantire trasparenza e consentire responsabilità in settori ad alto rischio come la sanità e la finanza. Le normative...

Regolamentare l’IA: Rischi e Opportunità per il Futuro

L'intelligenza artificiale è la tecnologia rivoluzionaria più trasformativa della nostra era, ma porta con sé enormi rischi. Senza una regolamentazione adeguata, questi rischi possono minare la...

Flussi AI Responsabili per la Ricerca UX

Questo articolo esplora come l'intelligenza artificiale può essere integrata in modo responsabile nei flussi di lavoro della ricerca UX, evidenziando i benefici e i rischi associati. L'AI può...