Guida alla segnalazione degli incidenti gravi nell’IA

La Commissione Europea Pubblica la Bozza di Linee Guida per la Segnalazione di Incidenti Gravi nell’IAh2>

Il 26 settembre 2025, la Commissione Europea ha emesso una b>bozza di linee guidab> sulla segnalazione di incidenti gravi ai sensi dell’Articolo 73 del Regolamento (UE) 2024/1689 sull’intelligenza artificiale (IA). Questo articolo richiede ai fornitori di sistemi IA ad alto rischio di notificare prontamente le autorità nazionali di sorveglianza del mercato riguardo a incidenti gravi derivanti dall’uso di tali sistemi.p>

Obblighi di Segnalazioneh3>

Le linee guida chiariscono le condizioni che costituiscono un “b>incidente graveb>” e stabiliscono gli obblighi degli attori coinvolti. Include anche un modello di segnalazione per le comunicazioni alle autorità competenti. Le linee guida trattano anche come gli obblighi ai sensi dell’Articolo 73 interagiscono con i doveri di segnalazione previsti da altre legislazioni europee.p>

Le aziende possono inviare commenti sulla bozza fino al 7 novembre 2025. Dopo il periodo di consultazione, la Commissione pubblicherà una versione finale delle linee guida, prevista per entrare in vigore il 2 agosto 2026.p>

Obblighi di Segnalazione per Incidenti Gravih3>

Secondo l’Articolo 73, i fornitori di sistemi IA ad alto rischio devono segnalare incidenti gravi alla competente autorità di sorveglianza del mercato. L’Articolo 3(49) definisce un “b>incidente graveb>” come un malfunzionamento di un sistema IA che porta a conseguenze serie, come:p>

  • a) morte o grave danno alla salute di un individuo;li>
  • b) interruzione seria e irreversibile nella gestione di infrastrutture critiche;li>
  • c) violazioni di obblighi previsti dal diritto dell’UE a tutela dei diritti fondamentali;li>
  • d) grave danno a beni o all’ambiente.li>
    ul>

    Questi obblighi di segnalazione si applicano solo ai fornitori di sistemi IA ad alto rischio, ritenuti dalla legislazione dell’UE a costituire un rischio significativo per la salute, la sicurezza o i diritti fondamentali.p>

    Definizioni Ampliative e Ambito di Applicazioneh3>

    Le linee guida ampliano il campo di applicazione dell’Articolo 73 chiarendo le circostanze che attivano l’obbligo di segnalazione. Un legame causale indiretto tra il sistema IA e il danno è sufficiente per stabilire un dovere di segnalazione. Ad esempio, un’analisi medica errata fornita da un sistema IA che provoca danno solo dopo una decisione clinica successiva sarebbe comunque un incidente segnalabile.p>

    La Commissione propone un regime di segnalazione semplificato per i sistemi IA ad alto rischio in settori con obblighi di segnalazione equivalenti, come le infrastrutture critiche ai sensi della Direttiva NIS-2 (2022/2555).p>

    Tempistiche di Segnalazione e Obblighi di Indagineh3>

    Le tempistiche di segnalazione sono serrate. Le aziende devono notificare senza indebito ritardo e, in ogni caso, entro 15 giorni dalla consapevolezza di un incidente grave. Il termine è di 10 giorni se è possibile che sia stata causata una morte e di due giorni per violazioni diffuse o interruzioni serie e irreversibili delle infrastrutture critiche.p>

    Le aziende devono anche avviare un’indagine sull’incidente dopo la segnalazione, come specificato nell’Articolo 73(6) della legge sull’IA dell’UE. È proibito modificare il sistema IA durante l’indagine senza informare le autorità, se tali modifiche potrebbero influenzare l’analisi successiva dell’incidente.p>

    Rischi di Conformità e Azioni Raccomandateh3>

    Le segnalazioni di incidenti gravi spesso innescano misure di sorveglianza di mercato e ulteriori azioni regolatorie. Le misure possono includere richiami di prodotto, ritiri dal mercato o divieti di disponibilità.p>

    La non conformità con gli obblighi di segnalazione espone le aziende a rischi significativi di responsabilità, con multe amministrative fino a 15 milioni di euro o il 3% del fatturato annuale globale, a seconda di quale sia più elevato.p>

    Le aziende dovrebbero quindi rivedere i loro processi di segnalazione e integrare i nuovi obblighi nei loro framework di segnalazione degli incidenti, definendo protocolli chiari e monitorando per rilevare potenziali incidenti gravi.p>

    Conclusione e Prospettiveh3>

    Le linee guida e il modello di segnalazione allegato sono attualmente solo in forma bozza. La consultazione pubblica è aperta fino al 7 novembre 2025, e le aziende interessate possono inviare commenti fino a tale data. È consigliabile che le aziende presentino suggerimenti pratici per chiarire le linee guida e il modello di segnalazione.p>

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...