I regolatori finanziari devono integrare l’etica nei loro sistemi di intelligenza artificiale
Con l’aumento del ruolo dell’intelligenza artificiale nella regolamentazione delle banche e di altre aziende di servizi finanziari, è fondamentale che i regolatori si assicurino che questi nuovi sistemi non importino vecchi pregiudizi nella supervisione moderna.
Cosa è in gioco
Un’IA di supervisione non controllata minaccia l’integrità del mercato, l’inclusione finanziaria e la fiducia pubblica.
Quote di esperti
“Le decisioni di supervisione devono rimanere spiegabili e responsabili,” richiedendo un “umano nel loop” per tutti gli interventi significativi.
Dati di supporto
Il sessantasette percento delle agenzie utilizza l’IA; il trentasette percento riporta di non avere un governo formale o un quadro etico.
Più di due terzi delle autorità finanziarie nel mondo stanno scommettendo sull’intelligenza artificiale per gestire le nostre economie, quindi come è possibile che più della metà di esse lo faccia senza linee guida etiche? Meno del 9% delle autorità finanziarie attualmente vede il pregiudizio algoritmico come una sfida da risolvere. Un panorama finanziario intensivo in tecnologia può davvero rimanere inclusivo e trasparente se gli strumenti utilizzati per supervisionarlo operano in un vuoto di governance?
Analisi e implicazioni
Le autorità finanziarie, comprese le banche centrali e i regolatori di mercato, stanno scommettendo sempre più sull’IA per monitorare stabilità e rischi finanziari. Tuttavia, quando la governance non tiene il passo con la tecnologia, le conseguenze possono includere una perdita di fiducia, un’integrità di mercato indebolita e danni indesiderati.
Negli ultimi anni, abbiamo assistito a un passaggio dalle spreadsheet cartacee a laghi di dati ad alta frequenza. Attualmente, il 67% delle agenzie di supervisione sta implementando, testando o esplorando l’IA per una gamma diversificata di casi d’uso ad alto impatto. Tuttavia, oltre la metà delle autorità non ha strutture di governance chiare per la tecnologia di supervisione abilitata dall’IA.
Le statistiche sono rivelatrici. Oltre un terzo delle agenzie (37%) riporta di non avere un quadro formale di governance o etica per l’IA nella supervisione. Inoltre, solo il 4% si allinea esplicitamente con standard internazionali come i principi dell’IA dell’OCSE o l’atto dell’IA dell’UE, mentre solo il 5% pubblica rapporti di trasparenza su come l’IA influisce sulle decisioni di supervisione.
È sorprendente notare la limitata riconoscenza del rischio etico come una sfida di supervisione. Solo l’8,8% delle autorità identifica le preoccupazioni etiche come un problema. Queste cifre sono allarmanti, considerando il rischio che l’IA amplifichi le disuguaglianze esistenti.
Governance dei dati e etica
La governance dei dati è quindi un elemento fondamentale dell’infrastruttura etica. Ciò include una chiara proprietà dei dati, documentazione della loro provenienza e controlli di qualità continui. Senza una buona governance dei dati, anche i sistemi di IA più ben intenzionati possono rinforzare i punti ciechi.
La necessità di basi solide diventa ancora più urgente man mano che le autorità finanziarie si spostano verso sistemi di IA agentici, che sono sempre più autonomi e capaci di agire con un intervento umano limitato. Questi sistemi promettono efficienza e scala, ma aumentano anche il rischio di vulnerabilità.
Conclusioni
Per colmare il divario di responsabilità, i leader devono prioritizzare politiche operative concrete che includano trasparenza su come l’IA viene utilizzata nella supervisione. È essenziale tradurre i principi etici in codici e protocolli misurabili. Senza una governance etica, l’implementazione di sistemi di IA può portare a risultati discriminatori e a una perdita catastrofica di fiducia pubblica.