Le aziende devono garantire la sicurezza nell’uso dell’IA, indipendentemente dalla regolamentazione
La regolamentazione dell’IA è notevolmente in ritardo rispetto all’adozione. Più del settantacinque percento delle aziende del settore finanziario nel Regno Unito stanno già utilizzando questa tecnologia, in casi d’uso diversificati come il servizio clienti e la rilevazione delle frodi.
Tuttavia, con i potenziali vantaggi emergono anche nuovi rischi. È incoraggiante vedere che il comitato del Tesoro fornisce un necessario scrutinio in quest’area, ma il suo ultimo rapporto è deludente. Sebbene alcune raccomandazioni siano sensate, il rapporto soffre di una mancanza di ampiezza. Non affrontando la prossima ondata di rischi legati all’IA già emergenti nel settore, rappresenta un’opportunità mancata per costruire consapevolezza e migliorare la resilienza informatica.
Alcuni piccoli passi avanti
Non tutto è negativo. Il comitato sottolinea giustamente che l’IA può essere utilizzata da avversari per rendere più efficaci le campagne di frode e aumentare il volume e la portata degli attacchi informatici contro il settore finanziario. Sostiene anche che l’approccio “aspettiamo e vediamo” della Financial Conduct Authority e della Banca d’Inghilterra all’IA espone i consumatori e il sistema finanziario a potenziali danni seri.
È corretto suggerire che una mancanza di chiarezza da parte dei regolatori minaccia di lasciare i consumatori vulnerabili a decisioni “black-box”, possibili pregiudizi e un crescente rischio di esclusione finanziaria. Le richieste di una guida più chiara da parte della FCA, di stress test specifici per l’IA e di una rapida designazione dei principali fornitori di IA/cloud come terze parti critiche sono tutte ragionevoli.
Attenzione al divario
Il problema è ciò che non viene detto. L’IA rappresenta una potenziale enorme superficie di attacco per gli attori delle minacce. I ricercatori hanno dimostrato più volte come le vulnerabilità esistano nell’ecosistema e possano essere sfruttate per rubare dati sensibili, interrompere servizi critici ed estorcere aziende.
Questi problemi si moltiplicano con l’emergere di sistemi agentici in grado di lavorare autonomamente su compiti. Poiché c’è poca supervisione umana, gli hacker potrebbero attaccare e sovvertire un agente senza attivare alcun allarme, portando a conseguenze irreversibili. Inoltre, poiché gli agenti si integrano con strumenti esterni e fonti di dati, c’è più opportunità di manipolarli.
Se un attaccante altera uno strumento su cui un agente fa affidamento o inietta informazioni false nella sua memoria, l’agente potrebbe iniziare a prendere decisioni non sicure, come approvare transazioni fraudolente o fornire valutazioni di rischio errate.
Il rischio deriva anche da una vasta e nascosta catena di fornitura dell’IA che comprende vari componenti di terze parti come librerie open-source, plug-in, API e piattaforme di modelli ospitati. Questi forniscono opportunità per avversari altamente motivati di piantare porte laterali. Queste possono essere attivate quando un sistema è operativo e adottato da un’organizzazione del settore finanziario.
Governance come punto di partenza
In assenza di chiari mandati normativi, come possono le aziende del settore finanziario mitigare i crescenti rischi legati all’IA? Qualsiasi sforzo dovrebbe iniziare dalla governance.
Molte aziende stanno implementando la tecnologia così rapidamente che faticano a capire quanto pervasivamente l’IA stia accedendo e utilizzando dati sensibili. L’uso non autorizzato dell’IA rimane una sfida significativa, che aggiunge costi medi di $670.000 a ciascuna violazione dei dati, secondo un rapporto del 2025.
Stabilire politiche chiare per l’adozione dell’IA, imporre controlli rigorosi su identità e accessi e monitorare tutte le interazioni dell’IA contribuirà a ridurre il rischio di uso improprio dei modelli o di perdita di dati.
La catena di fornitura deve essere esaminata. I componenti dell’IA, comprese le API e le librerie open-source, devono essere controllati per vulnerabilità e configurazioni errate. Aggiungere controlli di sicurezza automatizzati e monitorare continuamente gli endpoint esposti per prevenire manomissioni e accessi non autorizzati è essenziale.
Per le aziende finanziarie che costruiscono i propri servizi di IA, la “sicurezza per design” dovrebbe essere la direzione da seguire. Ciò significa garantire che modelli, archivi di dati e flussi di lavoro di distribuzione siano monitorati in tempo reale per possibili compromissioni e “deviazioni” graduali dalle loro configurazioni originali.
Le vulnerabilità emergono così rapidamente in questi ambienti che una valutazione continua della postura di sicurezza e una rapida remediation basata sui rischi sono essenziali.
Per le aziende del settore finanziario, queste non sono sfide teoriche. Il rischio è reale e proviene sia da attori motivati finanziariamente sia da stati. Se il settore desidera raccogliere i frutti dell’IA, deve prima garantirne la sicurezza, indipendentemente dal fatto che la regolamentazione esista già o meno.