Einleitung
Eine Finanzaufsichtsbehörde hat Bedenken geäußert, dass die Governance und Absicherung von KI‑Agenten in Finanzinstituten unzureichend ist. Die Warnung richtet sich an Banken und Pensionsfonds, die KI zunehmend in internen Prozessen und im Kundenkontakt einsetzen.
Kernanalyse
Bewertung der KI‑Nutzung
Eine gezielte Überprüfung großer regulierter Unternehmen im Jahr 2025 ergab, dass KI in allen untersuchten Institutionen eingesetzt wird, jedoch stark variierende Reifegrade im Risikomanagement und in der betrieblichen Resilienz aufweisen.
Identifizierte Lücken
Die Analyse zeigte Defizite in der Überwachung des Modellverhaltens, im Änderungsmanagement und bei der Stilllegung von KI‑Systemen. Ebenso fehlt häufig ein Inventar von KI‑Werkzeugen sowie eine klare Verantwortungszuweisung für einzelne KI‑Instanzen.
Sicherheitsaspekte
Der verstärkte Einsatz von KI verändert das Bedrohungsumfeld, da neue Angriffsvektoren wie Prompt‑Injection und unsichere Integrationen entstehen. Identitäts‑ und Zugriffsmanagement‑Praktiken wurden nicht immer an nicht‑menschliche Akteure angepasst, was zu erhöhten Risiken bei privilegierten Zugängen und Konfigurationsänderungen führt.
Implikationen und Risiken
Governance‑Empfehlungen
Es wird empfohlen, dass Aufsichtsgremien ein tieferes Verständnis von KI entwickeln, um Strategie und Aufsicht kohärent zu gestalten. Dazu gehört die Ausrichtung der KI‑Strategie an der Risikotoleranz, die Einführung von Überwachungs‑ und Eskalationsverfahren sowie die Sicherstellung menschlicher Beteiligung bei hochriskanten Entscheidungen.
Technische Kontrollen
Kontrollen für agentenbasierte und autonome Workflows sollten Privilegien‑Management, Konfigurations‑ und Patch‑Management sowie Sicherheits‑Tests von KI‑generiertem Code umfassen. Zudem sollten Institutionen Pläne für den Ausstieg aus der Abhängigkeit von einzelnen Anbietern entwickeln.
Fazit
Die Untersuchung verdeutlicht, dass die Einführung von KI in Finanzinstitutionen zwar Chancen für Produktivität und Kundenerlebnis bietet, jedoch erhebliche Governance‑ und Sicherheitslücken bestehen. Durch die Implementierung klarer Verantwortlichkeiten, umfassender Risikomanagement‑Prozesse und technischer Kontrollen können diese Risiken gemindert und ein sicherer, verantwortungsbewusster Einsatz von KI gewährleistet werden.