Consultazione sui Rischi: Classificazione dell’IA ad Alto Rischio

Consultazione mirata degli stakeholder sulla classificazione dei sistemi di IA ad alto rischio

La presente consultazione è rivolta a stakeholder di diverse categorie, tra cui fornitori e utilizzatori di sistemi di IA (ad alto rischio), altre organizzazioni industriali, accademia, esperti indipendenti, organizzazioni della società civile e autorità pubbliche.

Il Regolamento sull’Intelligenza Artificiale

Il Regolamento sull’Intelligenza Artificiale (il “AI Act”), entrato in vigore il 1° agosto 2024, crea un mercato unico e regole armonizzate per un’Intelligenza Artificiale (IA) affidabile e centrata sull’essere umano nell’UE. Mira a promuovere l’innovazione e l’adozione dell’IA, garantendo al contempo un alto livello di protezione della salute, della sicurezza e dei diritti fondamentali, inclusi la democrazia e lo stato di diritto.

Il AI Act adotta un approccio basato sul rischio, classificando i sistemi di IA in diverse categorie di rischio, una delle quali è quella dei sistemi di IA ad alto rischio (Capitolo III del AI Act). Le obbligazioni pertinenti per tali sistemi saranno applicabili due anni dopo l’entrata in vigore del AI Act, a partire dal 2 agosto 2026.

Classificazione dei Sistemi di IA ad Alto Rischio

Il AI Act distingue tra due categorie di sistemi di IA considerati ad alto rischio stabilite negli articoli 6(1) e 6(2). L’articolo 6(1) copre i sistemi di IA integrati come componenti di sicurezza in prodotti o che sono a loro volta prodotti coperti dalla legislazione dell’Unione nell’allegato I, che potrebbero avere un impatto negativo sulla salute e sulla sicurezza delle persone. L’articolo 6(2) copre i sistemi di IA che, in base al loro scopo previsto, sono considerati a rischio significativo per la salute, la sicurezza o i diritti fondamentali.

L’AI Act elenca otto aree in cui i sistemi di IA potrebbero comportare un rischio significativo per la salute, la sicurezza o i diritti fondamentali nell’allegato III e, all’interno di ciascuna area, elenca casi d’uso specifici da classificare come ad alto rischio.

Obblighi per i Sistemi di IA ad Alto Rischio

I sistemi di IA classificati come ad alto rischio devono essere sviluppati e progettati per soddisfare i requisiti stabiliti nel Capitolo III Sezione 2, in relazione a dati e governance dei dati, documentazione e tenuta dei registri, trasparenza e fornitura di informazioni agli utenti, supervisione umana, robustezza, accuratezza e sicurezza.

I fornitori di sistemi di IA ad alto rischio devono garantire che il loro sistema di IA ad alto rischio sia conforme a tali requisiti e devono conformarsi a una serie di obblighi stabiliti nel Capitolo III Sezione 3, in particolare l’obbligo di implementare un sistema di gestione della qualità e garantire che il sistema di IA ad alto rischio sia sottoposto a una valutazione di conformità prima di essere immesso sul mercato o messo in servizio.

Consultazione e Linee Guida

La Commissione è tenuta a fornire linee guida specificando l’implementazione pratica dell’articolo 6, che stabilisce le regole per la classificazione ad alto rischio, entro il 2 febbraio 2026. Queste linee guida dovrebbero essere accompagnate da un elenco completo di esempi pratici di casi d’uso di sistemi di IA ad alto rischio e non ad alto rischio.

Il fine della presente consultazione mirata è raccogliere input dagli stakeholder su esempi pratici di sistemi di IA e questioni da chiarire nelle linee guida della Commissione sulla classificazione dei sistemi di IA ad alto rischio e future linee guida sui requisiti e obblighi ad alto rischio, nonché sulle responsabilità lungo la catena del valore dell’IA.

Non tutte le domande potrebbero essere pertinenti per tutti gli stakeholder; i partecipanti possono rispondere solo alle sezioni e alle domande di loro interesse. Si incoraggiano i rispondenti a fornire spiegazioni e casi pratici a supporto della praticità delle linee guida.

La consultazione sarà aperta per 6 settimane dal 6 giugno al 18 luglio 2025. Il questionario per questa consultazione è strutturato in 5 sezioni con diverse domande.

Struttura del Questionario

Relativamente alle sezioni 1 e 2, ai rispondenti verrà chiesto di fornire risposte in base alle parti del sondaggio per le quali hanno espresso interesse nella domanda 13, mentre tutti i partecipanti sono gentilmente invitati a fornire input per le sezioni 3, 4 e 5.

  • Sezione 1: Domande relative alle regole di classificazione dei sistemi di IA ad alto rischio negli articoli 6(1) e allegato I del AI Act.
  • Sezione 2: Domande relative alla classificazione dei sistemi di IA ad alto rischio negli articoli 6(2) e allegato III del AI Act.
  • Sezione 3: Domande generali sulla classificazione ad alto rischio.
  • Sezione 4: Domande relative ai requisiti e obblighi per i sistemi di IA ad alto rischio.
  • Sezione 5: Domande relative alla necessità di emendare l’elenco dei casi d’uso ad alto rischio nell’allegato III.

Tutti i contributi a questa consultazione potrebbero essere resi pubblici. Pertanto, si prega di non condividere informazioni riservate nel proprio contributo. I dati personali saranno anonimizzati.

La Commissione pubblicherà un riepilogo dei risultati della consultazione, basato su dati aggregati e senza citare direttamente i rispondenti.

More Insights

Moratoria e Intelligenza Artificiale: Un Doppio Gioco Politico

Un moratorio sulla regolamentazione statale dell'intelligenza artificiale (AI) sta suscitando sia critiche che apprezzamenti all'interno del Partito Repubblicano. Alcuni membri del Congresso, come la...

Sicurezza e Governance AI: La Nuova Frontiera di IBM

IBM ha lanciato nuove capacità software che integrano la sicurezza e la governance dell'IA, segnando quella che sostiene essere la prima soluzione unificata del settore per gestire i rischi dell'IA...

Intelligenza Artificiale e Etica: Costruire un Futuro Responsabile

Con l'aumento dell'uso dell'intelligenza artificiale (IA) nei processi decisionali critici, è fondamentale stabilire solide strutture di governance etica. Le piattaforme di governance IA agentiche...

Innovazione Sovrana: L’Intelligenza Artificiale in Africa

L'Africa deve diventare l'architetto del proprio futuro nell'Intelligenza Artificiale, sviluppando quadri di governance inclusivi e riappropriandosi del controllo sui propri dati. È fondamentale...

Dominare l’Intelligenza Artificiale e la Sovranità dei Dati

L'economia globale sta entrando in una fase di trasformazione senza precedenti, guidata dall'ascesa rapida dei dati e dell'intelligenza artificiale. Secondo un rapporto di Forrester, entro il 2028...

Etica dell’IA: La Visione di Papa Leone XIV

Il Papa Leo XIV è emerso come un punto focale per le discussioni globali sulla regolamentazione dell'IA, presentando una visione etica robusta adatta per l'era dell'intelligenza artificiale. Ha...

L’Intelligenza Artificiale sotto il Controllo: Il Ruolo Cruciale degli Stati

I legislatori statunitensi stanno considerando una moratoria che vieterebbe la regolamentazione dell'IA a livello statale per dieci anni, nel tentativo di accelerare lo sviluppo dell'IA negli Stati...

Governanza Responsabile dell’IA: La Soluzione di Wild Tech

Wild Tech ha lanciato una nuova piattaforma per aiutare le organizzazioni a ridurre la dispersione dell'IA e migliorare la governance dei dati. La soluzione, allineata a Microsoft, mira a promuovere...

Sicurezza e Governance nell’AI: La Rivoluzione degli Sistemi Agentici

IBM annuncia il primo software del settore per unire i team di sicurezza e governance dell'IA, fornendo una visione unificata del rischio aziendale. Le nuove capacità migliorano e integrano...