Agentic AI im Zahlungsverkehr: Regulatorische Herausforderungen

Agentic AI im Zahlungsverkehr: Wichtige regulatorische Überlegungen

In den letzten Jahren hat die rasante Entwicklung großer Sprachmodelle, ausgelöst durch die massenhafte Einführung generativer KI-Chatbots, das Thema KI wieder ganz oben auf die Agenda der Führungsetagen im Finanzdienstleistungssektor gesetzt. Da automatisierte Systeme in der Finanzdienstleistungsbranche bereits lange tief verwurzelt sind, reagierten die Finanzinstitute schnell auf den neuesten KI-Boom und nahmen das Potenzial dieser Technologie offen an.

Agentic AI in Kürze

Es gibt kaum eine einheitliche Definition dafür, was genau agentic AI ist. In den letzten Jahren haben wir uns alle daran gewöhnt, KI-Chatbots auf der Basis großer Sprachmodelle zu nutzen, die auf Benutzeranweisungen reagieren und AI-generierte Ausgaben liefern können. Agentic AI-Systeme hingegen, auch bekannt als AI-Agenten, zeichnen sich durch ein höheres Maß an Autonomie aus, da sie nach Festlegung des Aufgabenumfangs unabhängig agieren können, ohne weitere Anweisungen des Benutzers oder menschliche Aufsicht.

AI-Zahlungsagenten

Die potenziellen Vorteile der Nutzung von agentic AI sind in nahezu allen Bereichen der Finanzdienstleistungen zu erkennen, doch der Zahlungsdienstleistungssektor sticht besonders hervor. Aus Verbrauchersicht könnte die Verwendung von AI-Agenten für Online-Zahlungen besonders verlockend sein, da sie eine größere Bequemlichkeit und Zeitersparnis bieten. Der AI-Agent kann automatisch Kaufaufträge erstellen und Zahlungstransaktionen einleiten, ohne dass der Benutzer etwas weiter tun muss.

Zahlungsdienstleistungsregulierung

Die Verwendung von AI-Agenten für Zahlungsabwicklungen bringt eine Reihe von regulatorischen Überlegungen mit sich. Die zweite Zahlungsdiensterichtlinie (PSD2) ist der Grundpfeiler des regulatorischen Rahmens für Zahlungsdienste und gilt allgemein für die Nutzung von AI-Agenten, die Zahlungen im Namen des Kunden tätigen.

Einwilligung und Authentifizierung

Für eine Zahlungsabwicklung, die nicht ordnungsgemäß vom Kunden autorisiert wurde, haften Zahlungsdienstleister in vielen Fällen und müssen Verluste erstatten. Die PSD2 verlangt, dass Zahlungsdienstleister die Authentifizierung des Kunden durch ein starkes Kundenauthentifizierungsverfahren (SCA) sicherstellen, was eine mehrstufige Authentifizierung erfordert.

Streitigkeiten und Rückbuchungen

Wenn ein AI-Zahlungsagent aufgrund falscher Produkt- oder Preiserkennung einen Kauf tätigt, der nicht den festgelegten Kriterien entspricht, wird die Zahlung als nicht autorisiert angesehen. In solchen Fällen könnte der Zahlungsdienstleister für die durch die fehlerhafte Transaktion entstandenen Verluste haftbar gemacht werden.

Drittanbieter-Risikomanagement

Da die Infrastruktur von AI-Agenten aus verschiedenen Komponenten besteht, ist das Risikomanagement von Drittanbietern ein kritischer Faktor für Zahlungsdienstleister. Diese müssen sicherstellen, dass ihre Dienstleistungsvereinbarungen mit Anbietern von Informations- und Kommunikationstechnologien den neuen Anforderungen entsprechen.

Regulatorische Behandlung unter dem EU AI Act

Neben der Compliance mit den Zahlungsdienstleistungsregulierungen müssen Unternehmen, die AI-Agenten in der EU einsetzen möchten, den neuen EU AI Act berücksichtigen. Dieser schafft einen harmonisierten regulatorischen Rahmen für die Entwicklung und den Einsatz von KI-Systemen.

Ausblick

Da große Technologieunternehmen und Zahlungsdienstleister zunehmend die potenziellen Vorteile von agentic AI erkennen, wird die Verbreitung dieser Technologie im Zahlungsverkehr voraussichtlich zunehmen. Dennoch müssen die Unternehmen, die im Zahlungsbereich eine Schlüsselrolle spielen möchten, sorgfältig ihre Kooperationsvereinbarungen mit anderen wichtigen Akteuren gestalten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...