Il Futuro dell’Intelligenza Artificiale nel Settore Bancario

Il Quadro Nazionale sull’IA testerà i modelli di decisione AI delle banche

Le ambizioni delle banche riguardo l’intelligenza artificiale (IA) potrebbero essere influenzate da un cambiamento di politica verso un quadro nazionale unico. I regolatori stanno segnalando che le decisioni basate sull’IA saranno giudicate come azioni finanziarie, e non come output tecnologici. La divisione competitiva si concentrerà su quali banche potranno difendere le decisioni guidate dall’IA sotto scrutinio.

Un nuova fase nel dibattito sull’IA

Il dibattito sulla politica dell’IA è entrato in una nuova fase, poiché si sta procedendo verso un quadro nazionale che mira a unificare un panorama normativo frammentato e stabilire aspettative più chiare su come la tecnologia venga governata in vari settori, tra cui quello bancario. Non è un caso che l’industria bancaria abbia già integrato l’IA nelle operazioni fondamentali, un processo in corso da anni.

I dati mostrano che quasi tre quarti dei leader finanziari riportano che i loro reparti stanno utilizzando l’IA, con applicazioni che spaziano dalla rilevazione delle frodi alla gestione dei rischi e all’automazione. Questi sistemi operativi influenzano come vengono aperti i conti, come vengono approvate le transazioni e come viene valutato il rischio.

L’IA all’interno dei confini normativi esistenti

Il nuovo approccio implica che l’IA erediti le norme che già governano le attività a cui si applica. Un modello di frode che rifiuta una transazione è soggetto alle stesse aspettative di qualsiasi altra decisione di pagamento. Se un modello contribuisce a un rifiuto errato o a un evento di frode perso, la responsabilità ricade sull’istituzione che lo ha implementato. La tecnologia diventa inseparabile dall’azione finanziaria che abilita.

Frodi, identità e il peso delle decisioni

Le istituzioni finanziarie stanno passando a difese contro le frodi guidate dall’intelligenza, combinando l’apprendimento automatico con l’analisi comportamentale per gestire minacce sempre più complesse. Le frodi da parte di soggetti non autorizzati rappresentano ora il 71% degli incidenti e delle perdite, aree in cui l’IA viene utilizzata per effettuare giudizi in tempo reale su identità, autorizzazione e intenzioni.

In questo contesto, le decisioni guidate dall’IA sono indistinguibili dalle azioni finanziarie che attivano. Quando un modello approva un pagamento o consente l’accesso a un conto, partecipa a un’attività regolamentata. Quando fallisce, le conseguenze vanno oltre le perdite, includendo danni reputazionali e erosione della fiducia dei clienti.

Da output a responsabilità

Per le banche, i controlli identitari basati sull’IA, le decisioni sulle frodi e le approvazioni dei pagamenti non saranno valutati come output tecnologici. Saranno giudicati come decisioni finanziarie soggette a normative già esistenti sulla protezione dei consumatori, antifrode e conformità. Questo cambia il modo in cui le istituzioni devono affrontare lo sviluppo e l’implementazione dei modelli.

Le metriche di prestazione, come la velocità e l’accuratezza, rimangono importanti, ma i modelli devono anche essere spiegabili, auditabili e coerenti con le aspettative normative. Questo spostamento espone le lacune tra l’adozione e la preparazione, poiché le preoccupazioni riguardo la fiducia dei consumatori, l’esposizione alla cybersecurity e l’incertezza normativa assumono un peso maggiore man mano che le politiche iniziano a formalizzare le aspettative.

Conclusioni

La prossima fase della competizione si concentrerà su quali istituzioni possono dimostrare che i loro modelli producono risultati che resistono all’esame di regolatori, revisori e, se necessario, dei tribunali. Questo rappresenta un diverso tipo di corsa agli armamenti, che pone un premio sulla governance e sulla trasparenza dei modelli, richiedendo una maggiore integrazione tra i team di rischio, conformità e tecnologia.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...