Firmen müssen ihre KI-Nutzung absichern, unabhängig von der Regulierung
Die Regulierung von KI hinkt der Anwendung erheblich hinterher. Mehr als drei Viertel der Finanzdienstleistungsunternehmen im Vereinigten Königreich nutzen bereits die Technologie in verschiedenen Anwendungsfällen, wie zum Beispiel im Kundenservice und bei der Betrugserkennung.
Doch mit potenziellen großen Vorteilen gehen auch neue Risiken einher. Es ist ermutigend zu sehen, dass die zuständigen Ausschüsse in diesem Bereich dringend benötigte Prüfungen durchführen, jedoch ist der letzte Bericht enttäuschend. Einige Empfehlungen sind durchaus sinnvoll, doch es mangelt an Umfang. Indem die nächsten Wellen von KI-Risiken, die bereits im Sektor auftauchen, nicht angesprochen werden, wird eine Chance verpasst, das Bewusstsein zu schärfen und die Cyber-Resilienz zu verbessern.
Einige Fortschritte
Die Ausschüsse weisen zu Recht darauf hin, dass KI von Gegnern genutzt werden kann, um Betrugsaktionen effektiver zu gestalten und die Anzahl sowie das Volumen von Cyberangriffen auf den Finanzdienstleistungssektor zu erhöhen. Zudem wird argumentiert, dass der „Abwarten-und-Sehen“-Ansatz der Finanzaufsichtsbehörde und der Zentralbank die Verbraucher und das Finanzsystem potenziell ernsthaft gefährdet.
Es ist richtig, dass ein Mangel an Klarheit vonseiten der Regulierungsbehörden die Verbraucher anfällig für „Black-Box-Entscheidungen“, mögliche Vorurteile und ein wachsendes Risiko der finanziellen Ausgrenzung macht. Forderungen nach klareren Anleitungen, KI-spezifischen Stresstests und einer schnellen Einstufung bedeutender KI-/Cloud-Anbieter als kritische Drittanbieter sind allesamt vernünftig.
Die Lücke beachten
Das Problem liegt jedoch in dem, was nicht gesagt wird. KI stellt eine potenziell riesige Angriffsfläche für Bedrohungsakteure dar. Forscher haben immer wieder gezeigt, dass es im gesamten Ökosystem Schwachstellen gibt, die ausgenutzt werden können, um sensible Daten zu stehlen, kritische Dienstleistungen zu stören und Unternehmen zu erpressen.
Diese Probleme multiplizieren sich durch das Auftreten von agentischen Systemen, die in der Lage sind, autonom Aufgaben zu erledigen. Da es wenig menschliche Aufsicht gibt, könnten Hacker einen Agenten angreifen und unterwandern, ohne Alarm auszulösen – potenziell mit irreversiblen Folgen. Und da Agenten sich mit externen Tools und Datenquellen integrieren, gibt es mehr Möglichkeiten, sie zu manipulieren.
Risiken im Zusammenhang mit der Lieferkette
Risiken ergeben sich auch aus einer umfangreichen, versteckten KI-Lieferkette, die verschiedene Drittanbieterkomponenten umfasst, wie Open-Source-Bibliotheken, Plugins, APIs und gehostete Modellplattformen. Diese bieten ebenfalls Möglichkeiten für motivierte Angreifer, Hintertüren einzuschleusen. Diese können aktiviert werden, wenn ein System in Betrieb ist und von einer Finanzdienstleistungsorganisation übernommen wurde. Einige Komponenten erfordern nicht einmal eine Authentifizierung, was die Arbeit des Bedrohungsakteurs erleichtert.
Open-Source-Frameworks werden mehrmals täglich aktualisiert, was die Wahrscheinlichkeit erhöht, dass sie neue Schwachstellen einführen, die von IT-Sicherheitsteams gefunden und behoben werden müssen. Selbst ehrliche Fehler in Drittanbieterkomponenten wie Fehlkonfigurationen können direkte Sicherheits- und Compliance-Risiken schaffen.
Mit Governance beginnen
In Ermangelung klarer regulatorischer Vorgaben, wie können Finanzdienstleister diese wachsenden KI-Risiken mindern?
Alle Bemühungen sollten mit Governance beginnen. Viele Unternehmen setzen die Technologie so schnell ein, dass sie selbst Schwierigkeiten haben zu verstehen, wie umfassend KI auf sensible Daten zugreift und diese nutzt. Schatten-KI-Nutzung bleibt eine große Herausforderung; eine, die laut einem Bericht von 2025 die durchschnittlichen Kosten eines Datenvorfalls pro Organisation um 670.000 USD erhöht.
Der jüngste Bericht eines Technologieunternehmens besagt, dass 20 Prozent der globalen Organisationen im letzten Jahr aufgrund eines Sicherheitsvorfalls, der mit unkontrollierter KI-Nutzung zusammenhing, einen Vorfall erlitten haben.
Die Einrichtung klarer Richtlinien für die KI-Nutzung, die Durchsetzung strenger Identitäts- und Zugriffskontrollen sowie die Überwachung aller KI-Interaktionen werden helfen, die Wahrscheinlichkeit von Missbrauch oder Datenlecks zu verringern.
Als Nächstes sollte die Lieferkette betrachtet werden. KI-Komponenten wie APIs, Open-Source-Bibliotheken und Modellserver sollten auf Schwachstellen und Fehlkonfigurationen überprüft werden. Automatisierte Sicherheitsprüfungen sollten hinzugefügt und kontinuierlich auf exponierte Endpunkte überwacht werden, um Manipulationen und unbefugten Zugriff zu verhindern.
Für Finanzdienstleister, die eigene KI-Dienste entwickeln, sollte „Sicherheit durch Design“ die Richtung vorgeben. Das bedeutet, dass Modelle, Datenspeicher und Bereitstellungsabläufe in Echtzeit auf mögliche Kompromittierungen und schrittweise „Abweichungen“ von ihren ursprünglichen Konfigurationen überwacht werden müssen.
Schwachstellen in diesen Umgebungen treten so schnell auf, dass eine kontinuierliche Bewertung der Sicherheitslage und eine schnelle, risikobasierte Behebung ebenfalls unerlässlich sind.
Für Finanzdienstleister sind dies keine theoretischen Herausforderungen. Das Risiko ist real und kommt sowohl von finanziell motivierten als auch von staatlichen Akteuren. Wenn der Sektor die Vorteile von KI nutzen will, muss er sie zuerst absichern – unabhängig davon, ob es bereits eine Regulierung gibt oder nicht.