Intelligenza Artificiale: Principi di Governance e Gestione del Rischio nel Settore Assicurativo

Consultazione sull’Opinione di EIOPA sulla Governance e Gestione del Rischio dell’IA

Il 12 febbraio 2025, l’Autorità Europea delle Assicurazioni e delle Pensioni Occupazionali (“EIOPA”) ha pubblicato una consultazione sulla sua bozza di opinione riguardante la governance e la gestione del rischio dell’intelligenza artificiale (“IA”).

L’Opinione è indirizzata alle autorità di vigilanza e riguarda le attività sia delle imprese di assicurazione che degli intermediari (di seguito congiuntamente definiti come “Imprese”), nella misura in cui possono utilizzare sistemi di IA nella catena del valore assicurativo.

Principi e Obiettivi dell’Opinione

L’Opinione mira a chiarire i principali principi e requisiti nella legislazione settoriale assicurativa per i sistemi di IA che non siano né vietati né considerati ad alto rischio ai sensi del Regolamento (UE) 2024/1689 (l’“Atto sull’IA”).

Fornisce indicazioni su come applicare la legislazione settoriale assicurativa ai sistemi di IA che non erano comuni o disponibili quando l’Atto sull’IA è stato approvato. L’approccio stabilisce aspettative di vigilanza di alto livello per i principi di governance e gestione del rischio che le imprese dovrebbero seguire per utilizzare i sistemi di IA in modo responsabile, tenendo conto dei rischi e della proporzionalità di ogni caso.

Punti Chiave dell’Opinione

Un riepilogo dei punti chiave dell’Opinione è il seguente:

  • L’Opinione sostiene che le Imprese dovrebbero valutare il rischio dell’IA nei suoi vari casi d’uso, notando che ci sono diversi livelli di rischio tra quei casi d’uso di IA che non sono vietati o considerati ad alto rischio ai sensi dell’Atto sull’IA.
  • Le Imprese devono sviluppare misure proporzionali per garantire l’uso responsabile dell’IA, adattando le misure di governance e gestione del rischio al caso specifico di utilizzo dell’IA.
  • In conformità con l’Art. 41 della Direttiva Europea 2009/138/CE, l’Art. 25 della Direttiva sulla Distribuzione delle Assicurazioni (“IDD”) e gli Art. 4, 5 e 6 dell’Atto sulla Resilienza Operativa Digitale, le Imprese dovrebbero sviluppare sistemi di governance e gestione del rischio proporzionati, focalizzandosi su:
    • Equità e etica;
    • Governance dei dati;
    • Documentazione e registrazione;
    • Trasparenza e spiegabilità;
    • Supervisione umana;
    • Accuratezza, robustezza e cybersecurity.
  • Si raccomanda che le Imprese definiscano e documentino in una politica (ad esempio, strategia IT, strategia dei dati o una strategia specifica per l’IA) l’approccio all’uso dell’IA all’interno dell’organizzazione, con revisioni regolari.
  • È consigliato implementare framework di responsabilità, indipendentemente dal fatto che il sistema di IA sia stato sviluppato internamente o da terzi.
  • EIOPA incoraggia un approccio centrato sul cliente alla governance dell’IA per garantire che i clienti siano trattati equamente e nel loro migliore interesse.
  • L’Opinione pone l’accento sui dati utilizzati per addestrare l’IA, che devono essere completi, accurati e privi di bias, e che gli output dei sistemi di IA devono essere significativamente spiegabili per identificare e mitigare potenziali bias.
  • Si enfatizza la necessità di meccanismi adeguati di risarcimento per consentire ai clienti di cercare rimedi quando danneggiati da un sistema di IA.
  • È essenziale mantenere registrazioni adeguate sui dati di addestramento/test e sulle metodologie di modellazione.
  • L’Opinione sottolinea l’importanza di controlli interni per un programma di conformità e gestione del rischio efficace.
  • Il sistema di IA deve funzionare in modo coerente durante il suo ciclo di vita rispetto ai livelli di accuratezza, robustezza e cybersecurity.

Conclusione

L’Opinione non propone alcuna legislazione aggiuntiva o modifiche alle leggi esistenti. Si chiarisce che l’EIOPA intende fornire una guida specifica per il settore assicurativo sull’operato dei sistemi di IA sotto le normative dell’UE esistenti, applicando un approccio basato sui principi.

Le risposte all’Opinione devono essere presentate entro il 12 maggio 2025. L’EIOPA considererà quindi il feedback ricevuto e revisionerà l’Opinione di conseguenza.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...