Il divario nella governance globale: come l’IA alimenta la prossima ondata di riciclaggio di denaro
L’architettura finanziaria globale sta attualmente affrontando un paradosso di “doppio utilizzo”. Mentre l’intelligenza artificiale (IA) viene celebrata come una forza trasformativa per la governance e la produttività, contemporaneamente consente nuove soluzioni per truffatori, riciclatori di denaro e finanziatori del terrorismo. Per rimanere un passo avanti rispetto a questi crimini e proteggere l’integrità del sistema finanziario globale, i regolatori e altri soggetti interessati devono abbracciare un uso responsabile dell’IA.
Rischi delle tecnologie IA
Un recente studio pubblicato dal Financial Action Task Force (FATF) sostiene che le diverse forme di tecnologia IA presentano nuovi rischi variabili per il riciclaggio di denaro e il finanziamento del terrorismo. I criminali possono sfruttare i modelli di “IA predittiva”, noti per rilevare schemi e fare previsioni, per eludere i sistemi tradizionali implementati dalle banche per rilevare transazioni sospette.
L’IA “generativa”, invece, crea deepfake, come video, audio, fatture e documenti d’identità realistici, che possono essere utilizzati per aggirare le procedure di due diligence per prevenire il riciclaggio, in particolare attraverso documentazione KYC falsa.
L’IA “agente” può fornire ai riciclatori sistemi autonomi per stratificare e integrare i guadagni illeciti. Ad esempio, l’IA agente può gestire milioni di conti fittizi e utilizzarli per eseguire trasferimenti ad alta frequenza e a basso valore per stratificare i fondi senza creare schemi riconoscibili.
Un altro esempio è quello in cui più agenti IA potrebbero giocare tra di loro su piattaforme di gioco online, utilizzando fondi ottenuti illegalmente e i vincitori incasserebbero come vincite di gioco legittime. Gli speculatori possono anche utilizzare l’IA agente nei mercati azionari per eseguire schemi rapidi di “pump-and-dump” e manipolare il mercato.
L’IA “generale”, ancora in fase di sviluppo, presumibilmente può ragionare come gli esseri umani e può riciclare fondi in modi così complessi che le autorità di polizia troverebbero difficile seguire il denaro e raccogliere le prove necessarie per avviare un’azione penale.
Rischio di forum shopping
Sebbene tutti i paesi siano tenuti a implementare gli standard di anti-riciclaggio del FATF nella loro giurisdizione, lo fanno con livelli di efficacia variabili. L’IA generativa può essere addestrata sulle leggi, i testi normativi e il contesto giuridico di diverse giurisdizioni per identificare le debolezze. L’IA formata su tali contenuti può quindi progettare strategie di stratificazione che sfruttano le debolezze di diverse giurisdizioni, frustrando gli sforzi di un paese per indagare sulle transazioni transfrontaliere.
Questa IA può anche essere utilizzata per sviluppare strutture aziendali complesse con divisioni multi-giurisdizionali. Ad esempio, una società incorporata in una giurisdizione, residente in un’altra, con conti bancari detenuti in un’altra e proprietà nascosta da tutte e tre.
L’IA potrebbe anche essere utilizzata per sviluppare una carta fittizia elaborata per legittimare il denaro nero. I fondi trasferiti attraverso più conti bancari in diverse giurisdizioni potrebbero essere supportati da fatture realistiche, documenti di spedizione e istruzioni di pagamento, tutti deepfake. L’IA agente può creare aziende false con siti web operativi e corrispondenza e-mail fittizia tra di esse in pochi minuti.
Necessità di governance
Se l’IA agente può essere addestrata a comportarsi da riciclatore, può anche essere addestrata a comportarsi da combattente contro i crimini finanziari. Si riconosce ora che banche e altre istituzioni finanziarie, organismi di vigilanza, unità di intelligence finanziaria, autorità fiscali e forze dell’ordine devono abbracciare l’IA per rimanere un passo avanti rispetto ai criminali in questo gioco. Tuttavia, questi soggetti sono vincolati dalla mancanza di uno standard globale coerente o applicabile per la regolamentazione dell’IA.
Solo poche giurisdizioni hanno sviluppato standard per la regolamentazione dell’IA, lasciando gran parte del mondo esposta. Questa frammentazione crea “zone grigie normative” dove i criminali possono mappare le giurisdizioni con il minor rischio di enforcement. A causa della crescente natura transfrontaliera dei crimini finanziari, solo i protocolli di governance dell’IA standardizzati tra le giurisdizioni possono essere efficaci nello sviluppo di controlli basati su IA per contrastare il riciclaggio alimentato da IA.
Inoltre, la natura “black box” dei sistemi IA presenta un ostacolo per le azioni penali. Quando gli agenti IA eseguono una strategia di stratificazione attraverso più giurisdizioni in pochi secondi, le leggi tradizionali faticano ad assegnare responsabilità umana o a raccogliere prove del “mens rea” (mente malvagia) dietro il riciclaggio.
Standard di governance globale sono richiesti per standardizzare l’audit dei sistemi IA e stabilire lo standard probatorio per il riciclaggio di denaro alimentato da IA. È necessario sviluppare standard operativi per i processi di KYC digitali. I paesi devono impegnarsi per “beni comuni” universali in modo che i paesi a bassa capacità abbiano accesso agli stessi strumenti di rilevamento dei deepfake dei centri finanziari internazionali.
Il dialogo sul divario nella governance globale nell’uso dell’IA è previsto per occupare un posto centrale in un prossimo vertice sull’impatto dell’IA.