Consultazione sui Rischi: Classificazione dell’IA ad Alto Rischio

Consultazione mirata degli stakeholder sulla classificazione dei sistemi di IA ad alto rischio

La presente consultazione è rivolta a stakeholder di diverse categorie, tra cui fornitori e utilizzatori di sistemi di IA (ad alto rischio), altre organizzazioni industriali, accademia, esperti indipendenti, organizzazioni della società civile e autorità pubbliche.

Il Regolamento sull’Intelligenza Artificiale

Il Regolamento sull’Intelligenza Artificiale (il “AI Act”), entrato in vigore il 1° agosto 2024, crea un mercato unico e regole armonizzate per un’Intelligenza Artificiale (IA) affidabile e centrata sull’essere umano nell’UE. Mira a promuovere l’innovazione e l’adozione dell’IA, garantendo al contempo un alto livello di protezione della salute, della sicurezza e dei diritti fondamentali, inclusi la democrazia e lo stato di diritto.

Il AI Act adotta un approccio basato sul rischio, classificando i sistemi di IA in diverse categorie di rischio, una delle quali è quella dei sistemi di IA ad alto rischio (Capitolo III del AI Act). Le obbligazioni pertinenti per tali sistemi saranno applicabili due anni dopo l’entrata in vigore del AI Act, a partire dal 2 agosto 2026.

Classificazione dei Sistemi di IA ad Alto Rischio

Il AI Act distingue tra due categorie di sistemi di IA considerati ad alto rischio stabilite negli articoli 6(1) e 6(2). L’articolo 6(1) copre i sistemi di IA integrati come componenti di sicurezza in prodotti o che sono a loro volta prodotti coperti dalla legislazione dell’Unione nell’allegato I, che potrebbero avere un impatto negativo sulla salute e sulla sicurezza delle persone. L’articolo 6(2) copre i sistemi di IA che, in base al loro scopo previsto, sono considerati a rischio significativo per la salute, la sicurezza o i diritti fondamentali.

L’AI Act elenca otto aree in cui i sistemi di IA potrebbero comportare un rischio significativo per la salute, la sicurezza o i diritti fondamentali nell’allegato III e, all’interno di ciascuna area, elenca casi d’uso specifici da classificare come ad alto rischio.

Obblighi per i Sistemi di IA ad Alto Rischio

I sistemi di IA classificati come ad alto rischio devono essere sviluppati e progettati per soddisfare i requisiti stabiliti nel Capitolo III Sezione 2, in relazione a dati e governance dei dati, documentazione e tenuta dei registri, trasparenza e fornitura di informazioni agli utenti, supervisione umana, robustezza, accuratezza e sicurezza.

I fornitori di sistemi di IA ad alto rischio devono garantire che il loro sistema di IA ad alto rischio sia conforme a tali requisiti e devono conformarsi a una serie di obblighi stabiliti nel Capitolo III Sezione 3, in particolare l’obbligo di implementare un sistema di gestione della qualità e garantire che il sistema di IA ad alto rischio sia sottoposto a una valutazione di conformità prima di essere immesso sul mercato o messo in servizio.

Consultazione e Linee Guida

La Commissione è tenuta a fornire linee guida specificando l’implementazione pratica dell’articolo 6, che stabilisce le regole per la classificazione ad alto rischio, entro il 2 febbraio 2026. Queste linee guida dovrebbero essere accompagnate da un elenco completo di esempi pratici di casi d’uso di sistemi di IA ad alto rischio e non ad alto rischio.

Il fine della presente consultazione mirata è raccogliere input dagli stakeholder su esempi pratici di sistemi di IA e questioni da chiarire nelle linee guida della Commissione sulla classificazione dei sistemi di IA ad alto rischio e future linee guida sui requisiti e obblighi ad alto rischio, nonché sulle responsabilità lungo la catena del valore dell’IA.

Non tutte le domande potrebbero essere pertinenti per tutti gli stakeholder; i partecipanti possono rispondere solo alle sezioni e alle domande di loro interesse. Si incoraggiano i rispondenti a fornire spiegazioni e casi pratici a supporto della praticità delle linee guida.

La consultazione sarà aperta per 6 settimane dal 6 giugno al 18 luglio 2025. Il questionario per questa consultazione è strutturato in 5 sezioni con diverse domande.

Struttura del Questionario

Relativamente alle sezioni 1 e 2, ai rispondenti verrà chiesto di fornire risposte in base alle parti del sondaggio per le quali hanno espresso interesse nella domanda 13, mentre tutti i partecipanti sono gentilmente invitati a fornire input per le sezioni 3, 4 e 5.

  • Sezione 1: Domande relative alle regole di classificazione dei sistemi di IA ad alto rischio negli articoli 6(1) e allegato I del AI Act.
  • Sezione 2: Domande relative alla classificazione dei sistemi di IA ad alto rischio negli articoli 6(2) e allegato III del AI Act.
  • Sezione 3: Domande generali sulla classificazione ad alto rischio.
  • Sezione 4: Domande relative ai requisiti e obblighi per i sistemi di IA ad alto rischio.
  • Sezione 5: Domande relative alla necessità di emendare l’elenco dei casi d’uso ad alto rischio nell’allegato III.

Tutti i contributi a questa consultazione potrebbero essere resi pubblici. Pertanto, si prega di non condividere informazioni riservate nel proprio contributo. I dati personali saranno anonimizzati.

La Commissione pubblicherà un riepilogo dei risultati della consultazione, basato su dati aggregati e senza citare direttamente i rispondenti.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...