Garantire la sicurezza nell’uso dell’IA nelle istituzioni finanziarie

Le aziende devono garantire la sicurezza nell’uso dell’IA, indipendentemente dalla regolamentazione

La regolamentazione dell’IA è notevolmente in ritardo rispetto all’adozione. Più del settantacinque percento delle aziende del settore finanziario nel Regno Unito stanno già utilizzando questa tecnologia, in casi d’uso diversificati come il servizio clienti e la rilevazione delle frodi.

Tuttavia, con i potenziali vantaggi emergono anche nuovi rischi. È incoraggiante vedere che il comitato del Tesoro fornisce un necessario scrutinio in quest’area, ma il suo ultimo rapporto è deludente. Sebbene alcune raccomandazioni siano sensate, il rapporto soffre di una mancanza di ampiezza. Non affrontando la prossima ondata di rischi legati all’IA già emergenti nel settore, rappresenta un’opportunità mancata per costruire consapevolezza e migliorare la resilienza informatica.

Alcuni piccoli passi avanti

Non tutto è negativo. Il comitato sottolinea giustamente che l’IA può essere utilizzata da avversari per rendere più efficaci le campagne di frode e aumentare il volume e la portata degli attacchi informatici contro il settore finanziario. Sostiene anche che l’approccio “aspettiamo e vediamo” della Financial Conduct Authority e della Banca d’Inghilterra all’IA espone i consumatori e il sistema finanziario a potenziali danni seri.

È corretto suggerire che una mancanza di chiarezza da parte dei regolatori minaccia di lasciare i consumatori vulnerabili a decisioni “black-box”, possibili pregiudizi e un crescente rischio di esclusione finanziaria. Le richieste di una guida più chiara da parte della FCA, di stress test specifici per l’IA e di una rapida designazione dei principali fornitori di IA/cloud come terze parti critiche sono tutte ragionevoli.

Attenzione al divario

Il problema è ciò che non viene detto. L’IA rappresenta una potenziale enorme superficie di attacco per gli attori delle minacce. I ricercatori hanno dimostrato più volte come le vulnerabilità esistano nell’ecosistema e possano essere sfruttate per rubare dati sensibili, interrompere servizi critici ed estorcere aziende.

Questi problemi si moltiplicano con l’emergere di sistemi agentici in grado di lavorare autonomamente su compiti. Poiché c’è poca supervisione umana, gli hacker potrebbero attaccare e sovvertire un agente senza attivare alcun allarme, portando a conseguenze irreversibili. Inoltre, poiché gli agenti si integrano con strumenti esterni e fonti di dati, c’è più opportunità di manipolarli.

Se un attaccante altera uno strumento su cui un agente fa affidamento o inietta informazioni false nella sua memoria, l’agente potrebbe iniziare a prendere decisioni non sicure, come approvare transazioni fraudolente o fornire valutazioni di rischio errate.

Il rischio deriva anche da una vasta e nascosta catena di fornitura dell’IA che comprende vari componenti di terze parti come librerie open-source, plug-in, API e piattaforme di modelli ospitati. Questi forniscono opportunità per avversari altamente motivati di piantare porte laterali. Queste possono essere attivate quando un sistema è operativo e adottato da un’organizzazione del settore finanziario.

Governance come punto di partenza

In assenza di chiari mandati normativi, come possono le aziende del settore finanziario mitigare i crescenti rischi legati all’IA? Qualsiasi sforzo dovrebbe iniziare dalla governance.

Molte aziende stanno implementando la tecnologia così rapidamente che faticano a capire quanto pervasivamente l’IA stia accedendo e utilizzando dati sensibili. L’uso non autorizzato dell’IA rimane una sfida significativa, che aggiunge costi medi di $670.000 a ciascuna violazione dei dati, secondo un rapporto del 2025.

Stabilire politiche chiare per l’adozione dell’IA, imporre controlli rigorosi su identità e accessi e monitorare tutte le interazioni dell’IA contribuirà a ridurre il rischio di uso improprio dei modelli o di perdita di dati.

La catena di fornitura deve essere esaminata. I componenti dell’IA, comprese le API e le librerie open-source, devono essere controllati per vulnerabilità e configurazioni errate. Aggiungere controlli di sicurezza automatizzati e monitorare continuamente gli endpoint esposti per prevenire manomissioni e accessi non autorizzati è essenziale.

Per le aziende finanziarie che costruiscono i propri servizi di IA, la “sicurezza per design” dovrebbe essere la direzione da seguire. Ciò significa garantire che modelli, archivi di dati e flussi di lavoro di distribuzione siano monitorati in tempo reale per possibili compromissioni e “deviazioni” graduali dalle loro configurazioni originali.

Le vulnerabilità emergono così rapidamente in questi ambienti che una valutazione continua della postura di sicurezza e una rapida remediation basata sui rischi sono essenziali.

Per le aziende del settore finanziario, queste non sono sfide teoriche. Il rischio è reale e proviene sia da attori motivati finanziariamente sia da stati. Se il settore desidera raccogliere i frutti dell’IA, deve prima garantirne la sicurezza, indipendentemente dal fatto che la regolamentazione esista già o meno.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...