Consultazione sui Rischi: Classificazione dell’IA ad Alto Rischio

Consultazione mirata degli stakeholder sulla classificazione dei sistemi di IA ad alto rischio

La presente consultazione è rivolta a stakeholder di diverse categorie, tra cui fornitori e utilizzatori di sistemi di IA (ad alto rischio), altre organizzazioni industriali, accademia, esperti indipendenti, organizzazioni della società civile e autorità pubbliche.

Il Regolamento sull’Intelligenza Artificiale

Il Regolamento sull’Intelligenza Artificiale (il “AI Act”), entrato in vigore il 1° agosto 2024, crea un mercato unico e regole armonizzate per un’Intelligenza Artificiale (IA) affidabile e centrata sull’essere umano nell’UE. Mira a promuovere l’innovazione e l’adozione dell’IA, garantendo al contempo un alto livello di protezione della salute, della sicurezza e dei diritti fondamentali, inclusi la democrazia e lo stato di diritto.

Il AI Act adotta un approccio basato sul rischio, classificando i sistemi di IA in diverse categorie di rischio, una delle quali è quella dei sistemi di IA ad alto rischio (Capitolo III del AI Act). Le obbligazioni pertinenti per tali sistemi saranno applicabili due anni dopo l’entrata in vigore del AI Act, a partire dal 2 agosto 2026.

Classificazione dei Sistemi di IA ad Alto Rischio

Il AI Act distingue tra due categorie di sistemi di IA considerati ad alto rischio stabilite negli articoli 6(1) e 6(2). L’articolo 6(1) copre i sistemi di IA integrati come componenti di sicurezza in prodotti o che sono a loro volta prodotti coperti dalla legislazione dell’Unione nell’allegato I, che potrebbero avere un impatto negativo sulla salute e sulla sicurezza delle persone. L’articolo 6(2) copre i sistemi di IA che, in base al loro scopo previsto, sono considerati a rischio significativo per la salute, la sicurezza o i diritti fondamentali.

L’AI Act elenca otto aree in cui i sistemi di IA potrebbero comportare un rischio significativo per la salute, la sicurezza o i diritti fondamentali nell’allegato III e, all’interno di ciascuna area, elenca casi d’uso specifici da classificare come ad alto rischio.

Obblighi per i Sistemi di IA ad Alto Rischio

I sistemi di IA classificati come ad alto rischio devono essere sviluppati e progettati per soddisfare i requisiti stabiliti nel Capitolo III Sezione 2, in relazione a dati e governance dei dati, documentazione e tenuta dei registri, trasparenza e fornitura di informazioni agli utenti, supervisione umana, robustezza, accuratezza e sicurezza.

I fornitori di sistemi di IA ad alto rischio devono garantire che il loro sistema di IA ad alto rischio sia conforme a tali requisiti e devono conformarsi a una serie di obblighi stabiliti nel Capitolo III Sezione 3, in particolare l’obbligo di implementare un sistema di gestione della qualità e garantire che il sistema di IA ad alto rischio sia sottoposto a una valutazione di conformità prima di essere immesso sul mercato o messo in servizio.

Consultazione e Linee Guida

La Commissione è tenuta a fornire linee guida specificando l’implementazione pratica dell’articolo 6, che stabilisce le regole per la classificazione ad alto rischio, entro il 2 febbraio 2026. Queste linee guida dovrebbero essere accompagnate da un elenco completo di esempi pratici di casi d’uso di sistemi di IA ad alto rischio e non ad alto rischio.

Il fine della presente consultazione mirata è raccogliere input dagli stakeholder su esempi pratici di sistemi di IA e questioni da chiarire nelle linee guida della Commissione sulla classificazione dei sistemi di IA ad alto rischio e future linee guida sui requisiti e obblighi ad alto rischio, nonché sulle responsabilità lungo la catena del valore dell’IA.

Non tutte le domande potrebbero essere pertinenti per tutti gli stakeholder; i partecipanti possono rispondere solo alle sezioni e alle domande di loro interesse. Si incoraggiano i rispondenti a fornire spiegazioni e casi pratici a supporto della praticità delle linee guida.

La consultazione sarà aperta per 6 settimane dal 6 giugno al 18 luglio 2025. Il questionario per questa consultazione è strutturato in 5 sezioni con diverse domande.

Struttura del Questionario

Relativamente alle sezioni 1 e 2, ai rispondenti verrà chiesto di fornire risposte in base alle parti del sondaggio per le quali hanno espresso interesse nella domanda 13, mentre tutti i partecipanti sono gentilmente invitati a fornire input per le sezioni 3, 4 e 5.

  • Sezione 1: Domande relative alle regole di classificazione dei sistemi di IA ad alto rischio negli articoli 6(1) e allegato I del AI Act.
  • Sezione 2: Domande relative alla classificazione dei sistemi di IA ad alto rischio negli articoli 6(2) e allegato III del AI Act.
  • Sezione 3: Domande generali sulla classificazione ad alto rischio.
  • Sezione 4: Domande relative ai requisiti e obblighi per i sistemi di IA ad alto rischio.
  • Sezione 5: Domande relative alla necessità di emendare l’elenco dei casi d’uso ad alto rischio nell’allegato III.

Tutti i contributi a questa consultazione potrebbero essere resi pubblici. Pertanto, si prega di non condividere informazioni riservate nel proprio contributo. I dati personali saranno anonimizzati.

La Commissione pubblicherà un riepilogo dei risultati della consultazione, basato su dati aggregati e senza citare direttamente i rispondenti.

More Insights

Microsoft e Meta: scelte opposte sul codice etico dell’IA

Microsoft è probabile che firmi il codice di condotta dell'Unione Europea per garantire la conformità con le normative sull'intelligenza artificiale, mentre Meta ha annunciato che non firmerà il...

Legge sull’IA in Colorado: un nuovo standard per il futuro

La recente spinta fallita da parte dei membri del Congresso per congelare le leggi sull'intelligenza artificiale a livello statale ha lasciato le aziende statunitensi con operazioni nazionali di...

Piano d’Azione per l’AI: Verso Etica e Innovazione

Il prossimo Piano d'azione sulla tecnologia AI 2026–2030 della Malesia rafforzerà le salvaguardie etiche e i quadri di governance riguardanti l'uso dell'intelligenza artificiale. Il Ministro Digitale...

Strategie e Politiche AI: Un Futuro Condiviso

Lo sviluppo di politiche e strategie responsabili per l'intelligenza artificiale (AI) deve avvenire simultaneamente piuttosto che in modo sequenziale. Questo è stato condiviso da un relatore durante...

Rischi sistemici dell’IA: Linee guida per la conformità alle normative europee

La Commissione Europea ha presentato linee guida per aiutare i modelli di intelligenza artificiale che presentano rischi sistemici a conformarsi alla regolamentazione dell'Unione Europea...

Kerala: Pioniere dell’AI Etica nell’Istruzione

Il Kerala sta emergendo come un leader globale nell'intelligenza artificiale etica e nell'istruzione, adottando un approccio che combina visione governativa, innovazione e impegno per l'equità...

Stati e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Le leggi sull'intelligenza artificiale negli Stati Uniti stanno rapidamente aumentando, poiché gli stati, come California e Colorado, stanno implementando norme per affrontare questioni come la...

Intelligenza Artificiale e Compliance: Rischi e Opportunità

L'IA nella compliance è qui e si integra nelle operazioni quotidiane di molte organizzazioni, migliorando le capacità di rilevamento e automatizzando compiti intensivi in termini di risorse. Tuttavia...

Censura alimentata dall’IA: la nuova era della regolamentazione in Europa

Le nuove norme "di sicurezza e protezione" dell'UE richiederanno alle aziende tecnologiche di censurare e moderare i contenuti sui modelli di intelligenza artificiale (IA) a uso generale per prevenire...