Il Quadro Nazionale sull’IA testerà i modelli di decisione AI delle banche
Le ambizioni delle banche riguardo l’intelligenza artificiale (IA) potrebbero essere influenzate da un cambiamento di politica verso un quadro nazionale unico. I regolatori stanno segnalando che le decisioni basate sull’IA saranno giudicate come azioni finanziarie, e non come output tecnologici. La divisione competitiva si concentrerà su quali banche potranno difendere le decisioni guidate dall’IA sotto scrutinio.
Un nuova fase nel dibattito sull’IA
Il dibattito sulla politica dell’IA è entrato in una nuova fase, poiché si sta procedendo verso un quadro nazionale che mira a unificare un panorama normativo frammentato e stabilire aspettative più chiare su come la tecnologia venga governata in vari settori, tra cui quello bancario. Non è un caso che l’industria bancaria abbia già integrato l’IA nelle operazioni fondamentali, un processo in corso da anni.
I dati mostrano che quasi tre quarti dei leader finanziari riportano che i loro reparti stanno utilizzando l’IA, con applicazioni che spaziano dalla rilevazione delle frodi alla gestione dei rischi e all’automazione. Questi sistemi operativi influenzano come vengono aperti i conti, come vengono approvate le transazioni e come viene valutato il rischio.
L’IA all’interno dei confini normativi esistenti
Il nuovo approccio implica che l’IA erediti le norme che già governano le attività a cui si applica. Un modello di frode che rifiuta una transazione è soggetto alle stesse aspettative di qualsiasi altra decisione di pagamento. Se un modello contribuisce a un rifiuto errato o a un evento di frode perso, la responsabilità ricade sull’istituzione che lo ha implementato. La tecnologia diventa inseparabile dall’azione finanziaria che abilita.
Frodi, identità e il peso delle decisioni
Le istituzioni finanziarie stanno passando a difese contro le frodi guidate dall’intelligenza, combinando l’apprendimento automatico con l’analisi comportamentale per gestire minacce sempre più complesse. Le frodi da parte di soggetti non autorizzati rappresentano ora il 71% degli incidenti e delle perdite, aree in cui l’IA viene utilizzata per effettuare giudizi in tempo reale su identità, autorizzazione e intenzioni.
In questo contesto, le decisioni guidate dall’IA sono indistinguibili dalle azioni finanziarie che attivano. Quando un modello approva un pagamento o consente l’accesso a un conto, partecipa a un’attività regolamentata. Quando fallisce, le conseguenze vanno oltre le perdite, includendo danni reputazionali e erosione della fiducia dei clienti.
Da output a responsabilità
Per le banche, i controlli identitari basati sull’IA, le decisioni sulle frodi e le approvazioni dei pagamenti non saranno valutati come output tecnologici. Saranno giudicati come decisioni finanziarie soggette a normative già esistenti sulla protezione dei consumatori, antifrode e conformità. Questo cambia il modo in cui le istituzioni devono affrontare lo sviluppo e l’implementazione dei modelli.
Le metriche di prestazione, come la velocità e l’accuratezza, rimangono importanti, ma i modelli devono anche essere spiegabili, auditabili e coerenti con le aspettative normative. Questo spostamento espone le lacune tra l’adozione e la preparazione, poiché le preoccupazioni riguardo la fiducia dei consumatori, l’esposizione alla cybersecurity e l’incertezza normativa assumono un peso maggiore man mano che le politiche iniziano a formalizzare le aspettative.
Conclusioni
La prossima fase della competizione si concentrerà su quali istituzioni possono dimostrare che i loro modelli producono risultati che resistono all’esame di regolatori, revisori e, se necessario, dei tribunali. Questo rappresenta un diverso tipo di corsa agli armamenti, che pone un premio sulla governance e sulla trasparenza dei modelli, richiedendo una maggiore integrazione tra i team di rischio, conformità e tecnologia.