AML na Era da IA: Quando a Máquina Sinaliza, Quem é Responsável?
Há uma questão que os profissionais de conformidade estão enfrentando, mesmo que poucos a tenham expressado abertamente em público. Quando um sistema de IA toma uma decisão de conformidade e algo dá errado, quem é responsável? Trata-se de uma questão de governança que ainda não tem uma resposta clara e universal nas regulamentações globais.
A Integração da IA nas Operações de Conformidade
A IA está cada vez mais incorporada nas operações de conformidade de instituições financeiras regulamentadas em todo o mundo. Funções como monitoramento de transações, integração de clientes, avaliação de risco e detecção de atividades suspeitas estão no cerne das obrigações de Combate à Lavagem de Dinheiro e ao Financiamento do Terrorismo (AML/CFT). Essas funções agora são parcialmente ou substancialmente impulsionadas por sistemas automatizados, o que é, em grande parte, um desenvolvimento positivo. A IA processa volumes que nenhuma equipe humana pode igualar, identifica padrões que nenhum analista conseguiria detectar e reduz a carga de falsos positivos que há muito torna as operações de conformidade ineficientes.
Entretanto, isso não resolveu a questão fundamental da responsabilidade.
A Lacuna Não Discutida
Os frameworks de AML são construídos sobre uma premissa fundamental: um ser humano tomou uma decisão. Seja um oficial de conformidade avaliando risco ou um Oficial de Relato de Lavagem de Dinheiro (MLRO) decidindo apresentar um relatório, cada etapa tem uma pessoa associada que pode ser questionada e responsabilizada.
A IA altera essa cadeia sem substituí-la. Enquanto os sistemas sinalizam, pontuam ou escalonam, a revisão humana muitas vezes se torna superficial devido aos altos volumes, diminuindo o julgamento real por trás da “assinatura humana”. Reguladores em todo o mundo estão começando a abordar isso, sinalizando que os modelos de IA devem ser confiáveis, transparentes e explicáveis.
Isso levanta um desafio prático para os profissionais de conformidade. Se um regulador lhe pedisse para explicar por que seu sistema aprovou uma transação específica meses atrás, você poderia fazê-lo em termos que satisfizessem o escrutínio?
Como a Máquina Capacita o Especialista
Para preencher essa lacuna, o foco deve mudar de “a máquina” tomando decisões para “a máquina” empoderando o julgamento especializado. Implementamos um fluxo de trabalho estruturado impulsionado por IA que garante transparência e supervisão liderada por humanos.
Quando nosso sistema interno de Avaliação de Risco de Clientes (CRA) detecta um cliente cuja atividade eleva seu risco, nossa ferramenta impulsionada por IA é automaticamente acionada. Esta ferramenta gera um perfil abrangente do cliente para revisão imediata, compilando todos os detalhes pessoais relevantes, além de capturar a atividade de negociação de todas as nossas plataformas. Isso garante que nada passe despercebido, pintando um retrato em tempo real do comportamento do cliente.
No topo desse perfil está nosso Agente Analisador de EDD. Este agente impulsionado por IA realiza uma avaliação inicial do perfil do cliente, destacando áreas de preocupação e fornecendo insights acionáveis. Isso significa que nossa equipe de Operações de Conformidade pode agir rapidamente, armada com informações focadas e priorizadas, ao invés de filtrar montanhas de dados.
Além disso, a mesma ferramenta de IA pode redigir Relatórios de Atividades Suspeitas (SARs) ou Relatórios de Transações Suspeitas (STRs) em casos sinalizados para maior atenção regulatória. Automatizando essa parte do processo, conseguimos atender a prazos exigentes (como as rigorosas exigências de submissão de 24 horas observadas em várias jurisdições), garantindo que nada atrapalhe a conformidade rápida e eficaz.
Onde Realmente Está a Responsabilidade
A resposta para quem é responsável está atualmente dispersa entre fornecedores de tecnologia, funções de conformidade e alta administração. Essa ambiguidade não sobreviverá a ações de fiscalização significativas.
A verdadeira responsabilidade requer uma camada de governança que acompanhe a implementação. Cada decisão assistida por IA deve estar dentro de uma categoria definida. Algumas podem ser acionadas autonomamente dentro de parâmetros pré-aprovados, e outras exigir revisão humana obrigatória. Cada categoria deve ter um responsável interno nomeado dentro da função de conformidade—não na função de tecnologia—que possa explicar, em termos simples, por que uma decisão específica foi tomada.
O elemento humano não é decorativo. Tratar a supervisão humana como uma mera formalidade cria a aparência de responsabilidade sem a substância. Uma cultura de conformidade genuína, capaz de suportar a pressão regulatória internacional, é construídas por pessoas que entendem o porquê de suas ações.
A máquina pode sinalizar, mas não pode ser responsabilizada. Essa responsabilidade permanece com as pessoas que constroem a estrutura de governança ao seu redor, e é exatamente onde ela pertence.