El auge del lavado de dinero impulsado por la inteligencia artificial

La brecha de gobernanza global: cómo la IA está impulsando la próxima ola de blanqueo de dinero

La arquitectura financiera global enfrenta actualmente una paradoja de «uso dual». Mientras que la inteligencia artificial (IA) se considera una fuerza transformadora para la gobernanza y la productividad, también está facilitando nuevas soluciones para estafadores, blanqueadores de dinero y financiadores del terrorismo. Para mantenerse a la vanguardia y proteger la integridad del sistema financiero global, los reguladores y otras partes interesadas deben adoptar un uso responsable de la IA.

Riesgos de las tecnologías de IA

Un reciente análisis horizontal sobre IA y deepfakes publicado por una organización relevante afirma que diferentes formas de tecnología de IA presentan nuevos riesgos variados de blanqueo de dinero y financiación del terrorismo. Los criminales pueden explotar modelos de IA predictiva, conocidos por detectar patrones y hacer predicciones, para eludir los sistemas tradicionales implementados por los bancos para detectar transacciones sospechosas.

Por otro lado, la IA generativa crea deepfakes, como videos, audios, facturas e identificaciones realistas, que pueden utilizarse para eludir la debida diligencia en la prevención del blanqueo de dinero, especialmente a través de documentación KYC falsa.

La IA agente puede proporcionar a los blanqueadores sistemas autónomos para el estratificado y la integración de ganancias ilícitas. Por ejemplo, la IA agente puede operar millones de cuentas de «mulas» y utilizarlas para realizar transferencias de bajo valor y alta frecuencia para estratificar fondos sin crear patrones. Otro ejemplo es que, para oscurecer el origen de los fondos, múltiples agentes de IA podrían competir entre sí en plataformas de juego en línea, utilizando fondos obtenidos ilegalmente, y los ganadores retirarían como ganancias legítimas del juego.

Los especuladores también pueden utilizar la IA agente en los mercados de valores para ejecutar esquemas rápidos de «pump-and-dump» y manipular el mercado. La IA general, que aún está en desarrollo, presumiblemente puede razonar como los humanos y puede blanquear fondos de maneras tan complejas que las autoridades competentes tendrían dificultades para rastrear el dinero y recopilar la evidencia necesaria para presentar una acusación.

Riesgo de selección de foros

Si bien todos los países están obligados a implementar los estándares de prevención del blanqueo de dinero en su jurisdicción, lo están haciendo con niveles de eficacia variados. La IA generativa puede ser entrenada en leyes, textos regulatorios y el contexto de diferentes jurisdicciones para identificar debilidades. La IA entrenada en dicho contenido puede diseñar estrategias de estratificación que aprovechen las debilidades de diferentes jurisdicciones. Esta selección de foros podría frustrar los esfuerzos de un país para investigar transacciones transfronterizas.

La IA también puede ser utilizada para desarrollar estructuras corporativas complejas con divisiones multidisciplinarias. Por ejemplo, una empresa incorporada en una jurisdicción, residente en otra, con cuentas bancarias en otra y propiedad oculta de las tres.

La IA podría utilizarse para desarrollar una elaborada, pero falsa, trayectoria documental para legitimar dinero negro. Los fondos movidos a través de múltiples cuentas bancarias en diferentes jurisdicciones podrían estar respaldados por facturas realistas, documentos de envío e instrucciones de pago, todos ellos deepfakes. La IA agente puede crear negocios falsos con sitios web operativos y correspondencia por correo electrónico ficticia entre ellos en minutos.

Necesidad de gobernanza

Si la IA agente puede ser entrenada para actuar como un blanqueador, también puede ser entrenada para actuar como un defensor del crimen financiero. Se reconoce que los bancos y otras instituciones financieras, los organismos de supervisión, las unidades de inteligencia financiera, las autoridades fiscales y las fuerzas del orden deben adoptar la IA para mantenerse por delante de los criminales en este juego. Sin embargo, estas partes interesadas están limitadas por la falta de un estándar global consistente o aplicable para la regulación de la IA. Solo unas pocas jurisdicciones han desarrollado estándares para la regulación de la IA, dejando la mayor parte del mundo expuesta.

Esta fragmentación crea «zonas grises regulatorias» donde los criminales pueden mapear jurisdicciones con el menor riesgo de aplicación. Debido a la naturaleza cada vez más transfronteriza de los delitos financieros, solo los protocolos de gobernanza de IA estandarizados a través de las jurisdicciones pueden ser efectivos en el desarrollo de controles impulsados por IA para verificar el blanqueo de dinero impulsado por IA.

Además, la naturaleza de «caja negra» de los sistemas de IA presenta un obstáculo para la acusación. Cuando los agentes de IA ejecutan una estrategia de estratificación a través de múltiples jurisdicciones en segundos, las leyes tradicionales luchan por asignar responsabilidad humana o recopilar evidencia del dolo detrás del blanqueo.

Se requieren estándares de gobernanza global para estandarizar la auditoría de los sistemas de IA y establecer el estándar probatorio para el blanqueo de dinero impulsado por IA. Es necesario desarrollar estándares operacionales para los procesos KYC digitales. Los países deben comprometerse con «bienes comunes» universales para que los países con baja capacidad tengan acceso a las mismas herramientas de detección de deepfakes que los centros financieros internacionales.

El diálogo sobre la brecha de gobernanza global en el uso de la IA se espera que ocupe un lugar central en un próximo evento internacional. Se destaca que uno de los temas de este evento es «IA Segura y Confiable», que busca crear marcos de seguridad y gobernanza interoperables y proporcionar a los países del Sur Global acceso equitativo a herramientas de evaluación, pruebas de seguridad y mecanismos de transparencia.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...