Die nächste Welle der Geldwäsche: KI als Katalysator

Globale Governance-Lücke: Wie KI die nächste Welle der Geldwäsche antreibt

Die globale Finanzarchitektur sieht sich derzeit einem „Dual-Use“-Paradoxon gegenüber. Während künstliche Intelligenz (KI) als transformative Kraft für Governance und Produktivität gefeiert wird, ermöglicht sie gleichzeitig neue Lösungen für Betrüger, Geldwäscher und Terrorfinanzierer. Um ihnen einen Schritt voraus zu sein und die Integrität des globalen Finanzsystems zu schützen, müssen Regulierungsbehörden und andere Stakeholder den verantwortungsvollen Einsatz von KI annehmen.

Risiken durch KI-Technologien

Eine kürzlich veröffentlichte Horizontalscan-Studie zu KI und Deepfakes, die von einer relevanten Organisation herausgegeben wurde, behauptet, dass verschiedene Formen von KI-Technologie unterschiedliche neue Risiken in Bezug auf Geldwäsche und Terrorfinanzierung darstellen. Kriminelle können „prädiktive KI“-Modelle ausnutzen, die dafür bekannt sind, Muster zu erkennen und Vorhersagen zu treffen, um traditionelle Systeme der Banken zu umgehen, die verdächtige Transaktionen erkennen sollen.

„Generative KI“ hingegen erstellt Deepfakes, wie realistische Videos, Audios, Rechnungen und Identifikationen, die verwendet werden können, um die Due-Diligence-Prüfung zur Verhinderung von Geldwäsche, insbesondere durch gefälschte KYC-Dokumente, zu umgehen.

„Agentic AI“ kann Geldwäschern autonome Systeme zur Schichtung und Integration illegaler Gewinne bieten. Beispielsweise kann Agentic AI Millionen von „Mule Accounts“ betreiben und diese verwenden, um Hochfrequenz- und Niedrigwertüberweisungen durchzuführen, um Gelder zu schichten, ohne Muster zu schaffen. Ein weiteres Beispiel ist, dass mehrere KI-Agenten gegeneinander auf Online-Glücksspielplattformen spielen könnten, wobei sie illegal erworbene Gelder verwenden, und die Gewinner sich als legitime Glücksspielgewinne auszahlen lassen.

„Generelle KI“, die sich noch in der Entwicklung befindet, kann voraussichtlich wie Menschen denken und kann Gelder auf so komplexe Weise waschen, dass Strafverfolgungsbehörden Schwierigkeiten haben werden, die Gelder zu verfolgen und die benötigten Beweise für eine Strafverfolgung zu sammeln. Generelle KI wird es einfacher machen, Buchhaltungen zu manipulieren, und es wird für Steuerprüfer unmöglich sein, die Herkunft von Geldern zu bestimmen.

Risiko des „Forum Shopping“

Obwohl alle Länder verpflichtet sind, die Standards zur Bekämpfung von Geldwäsche in ihrer Jurisdiktion umzusetzen, tun sie dies mit unterschiedlichen Effektivitätsgraden. Generative KI kann auf Gesetze, regulatorische Texte und den Kontext verschiedener Jurisdiktionen trainiert werden, um Schwächen zu identifizieren. KI, die auf solchen Inhalten trainiert wurde, kann dann Schichtungsstrategien entwerfen, die die Schwächen verschiedener Jurisdiktionen ausnutzen. Solches Forum Shopping könnte die Bemühungen eines Landes, grenzüberschreitende Transaktionen zu untersuchen, frustrieren.

Solche KI kann auch verwendet werden, um komplexe Unternehmensstrukturen mit multi-jurisdiktionalen Splits zu entwickeln. Beispielsweise könnte ein Unternehmen in einer Jurisdiktion gegründet werden, in einer anderen ansässig sein, Bankkonten in einer weiteren halten und die Eigentümerschaft vor allen drei verbergen.

KI könnte auch verwendet werden, um eine ausgeklügelte, aber gefälschte Papierkette zu entwickeln, um Schwarzgeld zu legitimieren. Gelder, die durch mehrere Bankkonten in verschiedenen Jurisdiktionen bewegt werden, könnten mit realistischen Rechnungen, Versanddokumenten und Zahlungsanweisungen, alles Deepfakes, untermauert werden. Agentic AI kann in Minuten gefälschte Unternehmen mit funktionalen Websites und fiktiven E-Mail-Korrespondenzen zwischen ihnen erstellen.

Bedarf an Governance

Wenn Agentic AI darauf trainiert werden kann, Geldwäscher zu spielen, dann kann sie auch darauf trainiert werden, ein Verbrechensbekämpfer zu sein. Es wird zunehmend anerkannt, dass Banken und andere Finanzinstitute, Aufsichtsbehörden, Finanzinformationsstellen, Steuerbehörden und Strafverfolgungsbehörden KI nutzen müssen, um den Kriminellen in diesem Spiel einen Schritt voraus zu sein. Allerdings sind diese Stakeholder durch das Fehlen eines konsistenten oder durchsetzbaren globalen Standards für die KI-Regulierung eingeschränkt. Nur wenige Jurisdiktionen haben Standards für die KI-Regulierung entwickelt, sodass die meisten Teile der Welt ungeschützt bleiben.

Diese Fragmentierung schafft „regulatorische Grauzonen“, in denen Kriminelle Jurisdiktionen mit dem geringsten Durchsetzungsrisiko kartieren können. Aufgrund der zunehmend grenzüberschreitenden Natur finanzieller Verbrechen können nur KI-Governance-Protokolle, die über Jurisdiktionen hinweg standardisiert sind, effektiv KI-gesteuerte Kontrollen zur Bekämpfung von KI-gesteuerter Geldwäsche entwickeln.

Darüber hinaus stellt die „Black Box“-Natur von KI-Systemen ein Hindernis für die Strafverfolgung dar. Wenn KI-Agenten eine Schichtungsstrategie in mehreren Jurisdiktionen in Sekunden ausführen, kämpfen traditionelle Gesetze damit, menschliche Haftung zuzuweisen oder Beweise für die mens rea („böse Absicht“) hinter der Geldwäsche zu sammeln.

Globale Governance-Standards sind erforderlich, um die Prüfung von KI-Systemen zu standardisieren und den Beweisstandard für KI-gesteuerte Geldwäsche festzulegen. Betrieblich notwendige Standards müssen für digitale KYC-Prozesse entwickelt werden. Länder müssen sich zu universellen „Gemeinwohl“-Zielen verpflichten, sodass Länder mit geringer Kapazität Zugang zu denselben Deepfake-Erkennungstools wie internationale Finanzzentren haben.

Die Diskussion über die globale Governance-Lücke im KI-Einsatz wird voraussichtlich im Rahmen eines bevorstehenden Gipfels zur KI-Auswirkungen im Jahr 2026 im Mittelpunkt stehen. Es ist interessant festzustellen, dass eines der Themen dieses Gipfels „Sichere und vertrauenswürdige KI“ ist, das darauf abzielt, interoperable Sicherheits- und Governance-Rahmen zu schaffen und Ländern des Globalen Südens gleichen Zugang zu KI-Sicherheitstest-, Evaluierungs- und Transparenzmechanismen zu bieten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...