Le fossé de la gouvernance mondiale : Comment l’IA alimente la prochaine vague de blanchiment d’argent
La structure financière mondiale est actuellement confrontée à un paradoxe « à double usage ». Alors que l’intelligence artificielle (IA) est saluée comme une force transformative pour la gouvernance et la productivité, elle permet également de nouvelles solutions pour les fraudeurs, les blanchisseurs d’argent et les financiers du terrorisme. Pour devancer ces menaces et protéger l’intégrité du système financier mondial, les régulateurs et autres parties prenantes doivent adopter une utilisation responsable de l’IA.
Risques liés aux technologies de l’IA
Une récente analyse horizontale sur l’IA et les deepfakes publiée par un organisme de régulation affirme que différentes formes de technologie IA posent de nouveaux risques variés de blanchiment d’argent et de financement du terrorisme. Les criminels peuvent exploiter des modèles d’IA prédictive, connus pour détecter des motifs et faire des prévisions, afin de contourner les systèmes traditionnels mis en place par les banques pour détecter des transactions suspectes.
D’un autre côté, l’IA générative crée des deepfakes, tels que des vidéos réalistes, des audios, des factures et des pièces d’identité, pouvant être utilisés pour contourner la diligence requise afin de prévenir le blanchiment d’argent, notamment à travers de faux documents KYC.
De plus, l’IA agentique peut fournir aux blanchisseurs des systèmes autonomes pour le layering et l’intégration des gains illicites. Par exemple, l’IA agentique peut faire fonctionner des millions de comptes de mules et les utiliser pour effectuer des transferts à haute fréquence et à faible valeur afin de superposer des fonds sans créer de motifs. Pour masquer l’origine des fonds, plusieurs agents IA pourraient jouer les uns contre les autres sur des plateformes de jeux en ligne, utilisant des fonds obtenus illégalement, et les gagnants retireraient des gains de jeu légitimes. Des spéculateurs peuvent également utiliser l’IA agentique sur les marchés boursiers pour exécuter rapidement des schémas de pump-and-dump et manipuler le marché.
Enfin, l’IA générale, encore en développement, pourrait raisonnablement raisonner comme un humain et blanchir des fonds de manière si complexe que les autorités judiciaires auraient du mal à suivre l’argent et à recueillir les preuves nécessaires pour engager des poursuites.
Risque du forum shopping
Bien que tous les pays soient tenus de mettre en œuvre les normes de lutte contre le blanchiment d’argent, ils le font avec des niveaux d’efficacité variés. L’IA générative peut être formée sur les lois, les textes réglementaires et le contexte des différents pays pour identifier les faiblesses. L’IA formée à partir de ces contenus peut alors concevoir des stratégies de layering qui tirent parti des faiblesses de différentes juridictions. Ce forum shopping pourrait frustrer les efforts d’un pays pour enquêter sur des transactions transfrontalières.
De plus, l’IA pourrait être utilisée pour développer des structures d’entreprise complexes avec des divisions multijuridictionnelles. Par exemple, une entreprise constituée dans une juridiction, résidente dans une autre, ayant des comptes bancaires dans une autre et dont la propriété est cachée dans toutes les trois.
L’IA pourrait également être utilisée pour développer une traçabilité en papier élaborée mais fausse afin de légitimer de l’argent noir. Les fonds déplacés à travers plusieurs comptes bancaires dans différentes juridictions pourraient être soutenus par des factures réalistes, des documents d’expédition et des instructions de paiement, tous des deepfakes. L’IA agentique peut créer de fausses entreprises avec des sites Web opérationnels et de fausses correspondances par e-mail entre elles en quelques minutes.
Besoin de gouvernance
Si l’IA agentique peut être formée pour agir comme un blanchisseur, elle peut également être formée pour agir comme un combattant de la criminalité financière. Il est maintenant reconnu que les banques et autres institutions financières, les organes de surveillance, les unités de renseignement financier, les autorités fiscales et les agences judiciaires doivent adopter l’IA pour devancer les criminels dans ce domaine. Cependant, ces parties prenantes sont limitées par l’absence d’une norme mondiale cohérente ou exécutoire pour la réglementation de l’IA.
Seules quelques juridictions ont développé des normes pour la réglementation de l’IA, laissant la plupart des régions du monde exposées. Cette fragmentation crée des « zones grises réglementaires » où les criminels peuvent cartographier les juridictions avec le risque d’exécution le plus faible. Étant donné la nature de plus en plus transfrontalière des crimes financiers, seuls des protocoles de gouvernance de l’IA standardisés à travers les juridictions peuvent être efficaces pour développer des contrôles basés sur l’IA pour vérifier le blanchiment d’argent également basé sur l’IA.
De plus, la nature « boîte noire » des systèmes d’IA représente un obstacle pour les poursuites. Lorsque des agents IA exécutent une stratégie de layering à travers plusieurs juridictions en quelques secondes, les lois traditionnelles ont du mal à attribuer une responsabilité humaine ou à recueillir des preuves de l’intention criminelle derrière le blanchiment.
Des normes de gouvernance mondiales sont nécessaires pour standardiser l’audit des systèmes d’IA et établir la norme probatoire pour le blanchiment d’argent basé sur l’IA. Des normes opérationnelles doivent être développées pour les processus KYC numériques. Les pays doivent s’engager envers des « biens communs » universels afin que les pays à faible capacité aient accès aux mêmes outils de détection de deepfake que les centres financiers internationaux.
Le dialogue autour du fossé de gouvernance mondiale dans l’utilisation de l’IA devrait occuper une place centrale lors d’un sommet à venir sur l’impact de l’IA, qui se tiendra cette semaine. L’un des sept axes de ce sommet concerne l’IA « sûre et digne de confiance », qui vise à créer des cadres de sécurité et de gouvernance interopérables et à fournir aux pays du Sud global un accès égal aux outils de test, d’évaluation et de transparence en matière de sécurité de l’IA.