O gap de governança global: como a IA está impulsionando a próxima onda de lavagem de dinheiro
A arquitetura financeira global enfrenta atualmente um paradoxo de ‘uso duplo’. Enquanto a inteligência artificial (IA) é considerada uma força transformadora para a governança e produtividade, ela também está permitindo novas soluções para fraudadores, lavadores de dinheiro e financiadores do terrorismo. Para se manter à frente deles e proteger a integridade do sistema financeiro global, reguladores e outras partes interessadas precisam abraçar o uso responsável da IA.
Riscos das tecnologias de IA
Uma recente análise publicada pelo Grupo de Ação Financeira (FATF) afirma que diferentes formas de tecnologia de IA apresentam novos riscos variados de lavagem de dinheiro e financiamento ao terrorismo. Criminosos podem explorar modelos de ‘IA preditiva’, conhecidos por detectar padrões e fazer previsões, para contornar sistemas tradicionais implementados por bancos para detectar transações suspeitas.
A ‘IA generativa’, por outro lado, cria deepfakes, como vídeos, áudios, faturas e identificações realistas, que podem ser utilizados para contornar a devida diligência na prevenção da lavagem de dinheiro, especialmente por meio de documentação KYC falsa.
A ‘IA agentiva’ pode fornecer aos lavadores sistemas autônomos para a camuflagem e integração de ganhos ilícitos. Por exemplo, a IA agentiva pode operar milhões de contas de laranja e usá-las para realizar transferências de baixo valor e alta frequência, escondendo fundos sem criar padrões. Outro exemplo é que, para obscurecer a origem dos fundos, múltiplos agentes de IA poderiam jogar uns contra os outros em plataformas de jogos online, utilizando fundos obtidos ilegalmente, e os vencedores retirariam como ganhos legítimos de apostas. Especuladores também podem usar a IA agentiva nos mercados de ações para realizar esquemas rápidos de ‘pump-and-dump’ e manipular o mercado.
A ‘IA geral’, ainda em desenvolvimento, presumivelmente pode raciocinar como humanos e pode lavar fundos de maneiras tão complexas que as autoridades de aplicação da lei teriam dificuldade em rastrear o dinheiro e coletar as evidências necessárias para uma acusação. A IA geral facilitará a realização de entradas de acomodação nos livros contábeis e tornará impossível para os inspetores fiscais determinar a origem dos fundos.
Risco de seleção de foro
Embora todos os países sejam obrigados a implementar os padrões de combate à lavagem de dinheiro do FATF em suas jurisdições, eles o fazem com níveis variados de eficácia. A IA generativa pode ser treinada em leis, textos regulatórios e o contexto de diferentes jurisdições para identificar fraquezas. A IA treinada nesse conteúdo pode então projetar estratégias de camuflagem que aproveitam as fraquezas de diferentes jurisdições. Essa seleção de foro pode frustrar os esforços de um país para investigar transações transfronteiriças.
A IA também pode ser utilizada para desenvolver estruturas corporativas complexas com divisões multijurisdicionais. Por exemplo, uma empresa incorporada em uma jurisdição, residente em outra, contas bancárias mantidas em outra e a propriedade oculta de todas as três.
A IA pode ainda criar um elaborado, mas falso, histórico documental para legitimizar dinheiro sujo. Fundos movidos através de múltiplas contas bancárias em diferentes jurisdições poderiam ser respaldados por faturas realistas, documentos de envio e instruções de pagamento, todos deepfakes. A IA agentiva pode criar empresas falsas com sites operacionais e correspondência de e-mail fictícia entre elas em minutos.
Necessidade de governança
Se a IA agentiva pode ser treinada para atuar como um lavador, ela também pode ser treinada para atuar como um combatente do crime financeiro. Reconhece-se agora que bancos e outras instituições financeiras, órgãos de supervisão, unidades de inteligência financeira, autoridades fiscais e autoridades de aplicação da lei precisam abraçar a IA para se manter à frente dos criminosos neste jogo. No entanto, essas partes interessadas estão limitadas pela falta de um padrão global consistente ou aplicável para a regulação da IA. Apenas algumas jurisdições desenvolveram padrões para a regulação da IA, deixando a maior parte do mundo exposta.
Essa fragmentação cria ‘zonas cinzentas regulatórias’ onde criminosos podem mapear jurisdições com o menor risco de aplicação. Devido à natureza cada vez mais transfronteiriça dos crimes financeiros, apenas protocolos de governança de IA padronizados entre as jurisdições podem ser eficazes no desenvolvimento de controles impulsionados por IA para verificar a lavagem de dinheiro impulsionada por IA.
Além disso, a natureza ‘caixa-preta’ dos sistemas de IA apresenta um obstáculo para a acusação. Quando agentes de IA executam uma estratégia de camuflagem em várias jurisdições em segundos, as leis tradicionais lutam para atribuir responsabilidade humana ou coletar evidências da mens rea (‘mente maligna’) por trás da lavagem de dinheiro.
São necessários padrões de governança global para padronizar a auditoria de sistemas de IA e estabelecer o padrão probatório para a lavagem de dinheiro impulsionada por IA. Padrões operacionais precisam ser desenvolvidos para processos digitais de KYC. Os países precisam se comprometer com ‘bens comuns’ universais para que países de baixa capacidade tenham acesso às mesmas ferramentas de detecção de deepfake que os centros financeiros internacionais.
O diálogo sobre o gap de governança global no uso da IA deve ganhar destaque na cúpula India AI Impact Summit 2026, que será realizada em breve. Um dos sete chakras desta cúpula é ‘IA Segura e Confiável’, que busca criar estruturas de segurança e governança interoperáveis e fornecer aos países do Sul Global acesso igual a ferramentas de teste, avaliação de segurança e mecanismos de transparência da IA.