Guida pratica alla gestione dei rischi dell’IA per le istituzioni finanziarie

Singapore: Il consorzio MAS rilascia un manuale completo sulla gestione del rischio dell’IA per le istituzioni finanziarie

Il consorzio MindForge ha pubblicato il manuale esecutivo sulla gestione del rischio dell’IA, che fornisce indicazioni sulla governance e sulla gestione del rischio dell’IA per le istituzioni finanziarie. Questo manuale esecutivo supporta le istituzioni a diversi livelli di maturità dell’IA nella scalabilità dell’IA con fiducia, adottando e operativizzando la governance dell’IA e la gestione del rischio in tutta l’impresa, consentendo un uso dell’IA nell’industria rapido ma responsabile.

Contesto

Nel 2018, la MAS ha emesso i 14 principi FEAT (Equità, Etica, Responsabilità, Trasparenza) per l’uso responsabile dell’IA nell’industria dei servizi finanziari. Dopo l’introduzione dei principi FEAT, è stata istituita l’iniziativa Veritas da parte della MAS e di un consorzio di istituzioni finanziarie, consulenze e aziende tecnologiche per operativizzare tali principi, producendo una metodologia e un toolkit tra il 2020 e il 2023.

La fase 1 del progetto MindForge si è conclusa con la pubblicazione di un white paper sui rischi e le opportunità emergenti dell’IA generativa per le banche nel maggio 2024. La fase 2 riunisce banche, assicuratori, aziende di mercati dei capitali, associazioni di settore, partner tecnologici e di consulenza per affrontare le sfide di governance dei moderni sistemi di IA, inclusa l’IA tradizionale, l’IA generativa e l’IA agentica. Il manuale esecutivo traduce anni di collaborazione nel settore in indicazioni pratiche che le istituzioni finanziarie possono implementare indipendentemente dal livello attuale di maturità dell’IA.

Componenti chiave

Il manuale esecutivo fa parte di un insieme di tre manuali progettati per essere utilizzati in concomitanza:

  • Manuale esecutivo sulla gestione del rischio dell’IA: Fornisce considerazioni e pratiche di implementazione per governare l’IA in ciascuna sezione dell’ambito del manuale ed è destinato a essere una risorsa per i dirigenti nell’industria dei servizi finanziari.
  • Manuale di operativizzazione della gestione del rischio dell’IA: Fornirà indicazioni dettagliate sull’operativizzazione di ciascuna pratica di implementazione, incluse illustrazioni delle buone pratiche dei membri principali, appendici e materiali di supporto.
  • Esempi di implementazione del manuale sulla gestione del rischio dell’IA: Fornirà casi studio dettagliati sulle esperienze delle singole istituzioni finanziarie nell’implementazione della governance e della gestione del rischio dell’IA.

Considerazioni principali

Il manuale esecutivo affronta aree critiche attraverso 17 considerazioni:

  1. Definire le responsabilità per la supervisione dell’IA stabilendo un modello operativo di governance dell’IA chiaramente definito con responsabilità del consiglio e della direzione senior;
  2. Garantire politiche, procedure e standard relativi all’IA efficaci che definiscano i concetti, i processi e le responsabilità chiave dell’IA;
  3. Migliorare la gestione del rischio a livello organizzativo integrando i rischi specifici dell’IA nel framework di rischio aziendale e nell’appetito al rischio;
  4. Migliorare le pratiche di gestione dei rischi dell’IA di terze parti attraverso pratiche di approvvigionamento, valutazione dei fornitori e contratti migliorati;
  5. Migliorare la gestione del rischio a livello di caso d’uso dell’IA attraverso valutazioni della materialità del rischio, controlli proporzionati e revisioni pre e post distribuzione;
  6. Assicurare capacità di inventario dell’IA per registrare e mantenere informazioni core sui casi d’uso dell’IA;
  7. Valutare il contesto e il design del caso d’uso per garantire la compatibilità con standard etici, normativi e organizzativi;
  8. Valutare se l’uso previsto dei dati nel caso d’uso dell’IA è compatibile con standard etici, normativi e organizzativi;
  9. Adottare pratiche di gestione dei dati appropriate che affrontino rischi e limitazioni quando si elaborano dati per i casi d’uso dell’IA;
  10. Valutare rischi specifici dell’IA incrementali come parte dell’onboarding di prodotti e servizi di IA di terze parti all’interno di un caso d’uso dell’IA;
  11. Assicurare che il caso d’uso dell’IA sia costruito con guardrail appropriati e metriche rilevanti per una gestione efficace delle prestazioni e dei rischi;
  12. Condurre test e revisioni approfondite prima della distribuzione per valutare i rischi specifici dell’IA e garantire che siano stati osservati guardrail, controlli e governance appropriati;
  13. Sviluppare piani di monitoraggio e contingenza per il caso d’uso prima della sua distribuzione e considerare opzioni di distribuzione informate dal rischio;
  14. Condurre un monitoraggio continuo dei casi d’uso dell’IA per garantire che rimangano adatti allo scopo nel tempo;
  15. Catturare le modifiche ai casi d’uso dell’IA attraverso una gestione efficace delle modifiche per mantenere la tracciabilità e garantire una revisione appropriata;
  16. Supportare la distribuzione dell’IA per garantire che sia adatta allo scopo.

Il manuale esecutivo sottolinea la proporzionalità: le misure di governance dovrebbero scalare con il rischio dell’IA in base alla natura dell’attività dell’istituzione, alla scala dell’uso dell’IA e all’appetito al rischio.

Prossimi passi

Le istituzioni finanziarie dovrebbero valutare la loro attuale maturità della governance dell’IA rispetto alle 17 considerazioni e implementare le pratiche raccomandate in modo proporzionato al loro profilo di rischio e al contesto aziendale.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...