Costruire etica nei sistemi AI delle autorità finanziarie

I regolatori finanziari devono integrare l’etica nei loro sistemi di intelligenza artificiale

Con l’aumento del ruolo dell’intelligenza artificiale nella regolamentazione delle banche e di altre aziende di servizi finanziari, è fondamentale che i regolatori si assicurino che questi nuovi sistemi non importino vecchi pregiudizi nella supervisione moderna.

Cosa è in gioco

Un’IA di supervisione non controllata minaccia l’integrità del mercato, l’inclusione finanziaria e la fiducia pubblica.

Quote di esperti

“Le decisioni di supervisione devono rimanere spiegabili e responsabili,” richiedendo un “umano nel loop” per tutti gli interventi significativi.

Dati di supporto

Il sessantasette percento delle agenzie utilizza l’IA; il trentasette percento riporta di non avere un governo formale o un quadro etico.

Più di due terzi delle autorità finanziarie nel mondo stanno scommettendo sull’intelligenza artificiale per gestire le nostre economie, quindi come è possibile che più della metà di esse lo faccia senza linee guida etiche? Meno del 9% delle autorità finanziarie attualmente vede il pregiudizio algoritmico come una sfida da risolvere. Un panorama finanziario intensivo in tecnologia può davvero rimanere inclusivo e trasparente se gli strumenti utilizzati per supervisionarlo operano in un vuoto di governance?

Analisi e implicazioni

Le autorità finanziarie, comprese le banche centrali e i regolatori di mercato, stanno scommettendo sempre più sull’IA per monitorare stabilità e rischi finanziari. Tuttavia, quando la governance non tiene il passo con la tecnologia, le conseguenze possono includere una perdita di fiducia, un’integrità di mercato indebolita e danni indesiderati.

Negli ultimi anni, abbiamo assistito a un passaggio dalle spreadsheet cartacee a laghi di dati ad alta frequenza. Attualmente, il 67% delle agenzie di supervisione sta implementando, testando o esplorando l’IA per una gamma diversificata di casi d’uso ad alto impatto. Tuttavia, oltre la metà delle autorità non ha strutture di governance chiare per la tecnologia di supervisione abilitata dall’IA.

Le statistiche sono rivelatrici. Oltre un terzo delle agenzie (37%) riporta di non avere un quadro formale di governance o etica per l’IA nella supervisione. Inoltre, solo il 4% si allinea esplicitamente con standard internazionali come i principi dell’IA dell’OCSE o l’atto dell’IA dell’UE, mentre solo il 5% pubblica rapporti di trasparenza su come l’IA influisce sulle decisioni di supervisione.

È sorprendente notare la limitata riconoscenza del rischio etico come una sfida di supervisione. Solo l’8,8% delle autorità identifica le preoccupazioni etiche come un problema. Queste cifre sono allarmanti, considerando il rischio che l’IA amplifichi le disuguaglianze esistenti.

Governance dei dati e etica

La governance dei dati è quindi un elemento fondamentale dell’infrastruttura etica. Ciò include una chiara proprietà dei dati, documentazione della loro provenienza e controlli di qualità continui. Senza una buona governance dei dati, anche i sistemi di IA più ben intenzionati possono rinforzare i punti ciechi.

La necessità di basi solide diventa ancora più urgente man mano che le autorità finanziarie si spostano verso sistemi di IA agentici, che sono sempre più autonomi e capaci di agire con un intervento umano limitato. Questi sistemi promettono efficienza e scala, ma aumentano anche il rischio di vulnerabilità.

Conclusioni

Per colmare il divario di responsabilità, i leader devono prioritizzare politiche operative concrete che includano trasparenza su come l’IA viene utilizzata nella supervisione. È essenziale tradurre i principi etici in codici e protocolli misurabili. Senza una governance etica, l’implementazione di sistemi di IA può portare a risultati discriminatori e a una perdita catastrofica di fiducia pubblica.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...