Guida alla segnalazione di incidenti gravi nell’IA secondo le nuove norme europee

La Commissione Europea Pubblica una Bozza di Linee Guida per Incidenti Gravi di IA ai sensi dell’Atto sull’IA dell’UE

Il 26 settembre 2025, la Commissione Europea ha pubblicato la ‘Bozza di Linee Guida Articolo 73 Atto sull’IA – Segnalazione di Incidenti’ (le Linee Guida). Queste Linee Guida sono destinate ad aiutare i fornitori e gli utilizzatori di Sistemi di IA ad Alto Rischio (come definiti nell’Atto sull’IA dell’UE) a rispettare i loro obblighi di monitoraggio post-marketing riguardo alla segnalazione di incidenti gravi e violazioni diffuse di tali sistemi ai rispettivi autorità nazionali.

Obiettivi delle Linee Guida

Le Linee Guida mirano a chiarire le definizioni e gli obblighi di segnalazione fornendo spiegazioni dettagliate (come la natura degli obblighi e cosa, quando e come segnalare) e fornendo esempi pratici.

Definizioni Chiave

Tra le altre cose, le Linee Guida scompongono i componenti delle definizioni chiave, come un incidente grave (per il quale si applicano gli obblighi di segnalazione), e considerano il significato e le circostanze in cui un incidente o un malfunzionamento del sistema di IA provoca direttamente o indirettamente, sia utilizzato secondo le sue finalità previste che tramite un uso ragionevolmente prevedibile, morte o gravi danni.

Esempi di Violazioni

Le Linee Guida chiariscono che il danno grave per violazione dei diritti fondamentali include i diritti protetti dalla Carta dei Diritti Fondamentali dell’UE. Tuttavia, c’è un focus sugli incidenti gravi e, pertanto, solo quelle violazioni che interferiscono significativamente con i diritti protetti dalla Carta dell’UE su larga scala sono segnalabili. Esempi includono l’IA discriminatoria nel reclutamento, il punteggio creditizio che esclude determinate categorie di persone, come quelle con nomi da determinate regioni o residenti in determinate località, o l’identificazione biometrica che frequentemente identifica erroneamente individui di determinati background.

Obblighi di Segnalazione e Normative Correlate

Le Linee Guida chiariscono che lo stesso evento può innescare obblighi di segnalazione ai sensi di diverse legislazioni dell’UE, ma dettagliano anche come l’Atto sull’IA preveda misure per mitigare il rischio di sovrapposizione degli obblighi e della fatica da segnalazione, fornendo esempi di scenari in cui la segnalazione ai sensi dell’Atto sull’IA può essere necessaria.

Ad esempio, ai sensi della Direttiva sulla Resilienza delle Entità Critiche, le entità in settori essenziali (inclusi energia, acqua, infrastruttura digitale) devono segnalare incidenti che interrompono i servizi essenziali entro 24 ore dall’incidente. Ai sensi dell’Atto sull’IA, per questi settori, solo gli incidenti che comportano violazioni dei diritti fondamentali richiedono segnalazioni aggiuntive.

Allineamento con Standard Internazionali

Le Linee Guida sottolineano l’intenzione dell’UE di allineare il monitoraggio degli incidenti di IA con gli standard internazionali, inclusi il Monitor degli Incidenti di IA e il Quadro di Segnalazione Comune dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE).

Conclusione

Le Linee Guida non trattano i modelli di IA di uso generale con rischio sistemico e relativi doveri di segnalazione (questi obblighi rientrano nell’Articolo 55 dell’Atto sull’IA). La Commissione Europea ha anche pubblicato un modulo di segnalazione ‘Rapporto di Incidente per Incidenti Gravi ai sensi dell’Atto sull’IA (Sistemi di IA ad Alto Rischio)’ insieme alle Linee Guida. Le Linee Guida e il Modulo di Segnalazione sono disponibili per la consultazione, e il feedback degli stakeholder può essere inviato fino al 7 novembre 2025.

More Insights

Collaborazione e Competizione nell’Intelligenza Artificiale

Il progetto Red Cell mira a sfidare le assunzioni e il pensiero di gruppo nel contesto delle politiche di sicurezza nazionale degli Stati Uniti. L'era dell'intelligenza artificiale sta rimodellando il...

La nuova politica dell’IA in Pakistan: un futuro di innovazione e opportunità

Il Pakistan ha introdotto una politica nazionale ambiziosa per l'intelligenza artificiale, mirata a costruire un mercato domestico dell'IA da 2,7 miliardi di dollari in cinque anni. La politica si...

Governare l’etica dell’IA per un futuro sostenibile

La governance etica dell'IA è ora una priorità strategica che richiede il coinvolgimento attivo dei dirigenti e una collaborazione trasversale per garantire che i principi etici siano integrati in...

Strategie AI per l’Istruzione Superiore

L'intelligenza artificiale sta trasformando l'istruzione superiore, migliorando le strategie didattiche e rafforzando la sicurezza fisica. Le istituzioni devono bilanciare sperimentazione ed...

Governare l’AI per un futuro sostenibile in Africa

L'intelligenza artificiale (IA) non è più solo appannaggio delle economie avanzate; sta gradualmente plasmando i servizi finanziari, l'agricoltura, l'istruzione e persino il governo in Africa. La...

Il Contraccolpo dell’Intelligenza Artificiale

La trasformazione economica dell'IA è iniziata, con aziende come IBM e Salesforce che hanno ridotto il personale grazie all'automazione. Tuttavia, l'adozione dell'IA solleverà questioni politiche...

Etica del lavoro digitale: responsabilità nell’era dell’IA

Il lavoro digitale sta diventando sempre più comune, ma sono state implementate poche regole ampiamente accettate per governarlo. La sfida principale per i leader è gestire l'implementazione e la...

Strumento Petri: Auditing AI Sicuro e Automatizzato

Anthropic ha lanciato Petri, uno strumento open source per l'audit della sicurezza dell'IA, progettato per testare automaticamente i modelli di linguaggio di grandi dimensioni (LLM) per comportamenti...

L’armonia tra il Regolamento UE sull’IA e il GDPR

L'IA è la parola d'ordine onnipresente nel settore legale e l'Atto sull'IA dell'UE è uno dei principali argomenti di interesse per molti professionisti legali. Questo articolo esplora le interazioni...