Neue KI-Risiken: Halluzinationen und kriminelle Nutzung auf der Wall Street

Neue Risiken der KI auf Wall Street

Wall Street-Firmen wie Goldman Sachs, Citigroup und JPMorgan Chase warnen Investoren vor neuen Risiken, die mit der zunehmenden Nutzung von künstlicher Intelligenz (KI) verbunden sind. Diese Risiken umfassen Software-Halluzinationen, Probleme mit der Mitarbeiter-Moral, den Einsatz durch Cyberkriminelle und die Auswirkungen sich ändernder Gesetze weltweit.

Identifizierung neuer Gefahren

Die in den Jahresberichten der Banken neu hervorgehobenen Gefahren umfassen fehlerhafte oder unzuverlässige KI-Modelle, steigenden Wettbewerb und neue Vorschriften, die die Nutzung von KI einschränken. So äußerte JPMorgan, dass KI zu einer „Arbeitsplatzverdrängung“ führen könnte, die die Mitarbeiter-Moral und -Bindung negativ beeinflusst und den Wettbewerb um die Einstellung von Mitarbeitern mit den erforderlichen technologischen Fähigkeiten erhöht.

In den letzten Jahren haben Banken zunehmend KI-bezogene Risiken in ihren Jahresberichten anerkannt, doch neue Bedenken treten auf, da der Finanzsektor zunehmend KI über eigene Software oder Angebote von Drittanbietern einsetzt.

Risiken durch Cyberangriffe

Die Banken warnen, dass sie bei unzureichender Aktualisierung mit den neuesten Entwicklungen in der KI das Risiko eingehen, Kunden und Geschäfte zu verlieren. Gleichzeitig sind sie jedoch auch Risiken ausgesetzt, die sich aus Cyberangriffen und Missbrauch ergeben können.

Ben Shorten, Leiter für Finanzen, Risiko und Compliance bei Accenture, betont die Notwendigkeit, geeignete Governing-Mechanismen zu implementieren, um sicherzustellen, dass KI sicher, fair und geschützt eingesetzt wird. “Dies ist keine Plug-and-Play-Technologie,” sagt er in einem Interview.

Datenqualität und Modelle

Banken sind gefährdet, Technologien zu testen, die möglicherweise auf veralteten, voreingenommenen oder ungenauen Finanzdatensätzen basieren. Der Jahresbericht von JPMorgan hebt die Gefahren hervor, die mit der Entwicklung und Wartung von Modellen verbunden sind, die die höchste Datenqualität erfordern.

Citigroup warnt, dass bei der Einführung von generativer KI in bestimmten Bereichen der Bank das Risiko besteht, „ineffektive, unzureichende oder fehlerhafte“ Ergebnisse zu produzieren. Diese Daten könnten unvollständig, voreingenommen oder ungenau sein, was „negative Auswirkungen auf den Ruf, die Kunden, die Geschäfte oder die Ergebnisse der Operationen und die finanzielle Situation“ haben könnte.

Integration von KI

Goldman Sachs hat seine Investitionen in digitale Vermögenswerte, Blockchain und KI erhöht. Allerdings stellen sich neue Wettbewerbsrisiken bei der rechtzeitigen Integration von KI-Technologien, um die Produktivität zu steigern, Kosten zu senken und den Kunden bessere Transaktionen, Produkte und Dienstleistungen anzubieten.

Die finanziellen Unternehmen stehen auch vor der Herausforderung, Datenprivatsphäre und regulatorische Compliance in einem „weniger sicheren und sich schnell entwickelnden“ Umfeld aufrechtzuerhalten. Im Jahr 2024 trat das EU-Gesetz über künstliche Intelligenz in Kraft, das neue Regeln für die Nutzung von KI-Systemen in der Region festlegt, in der viele US-Banken tätig sind.

Verantwortungsbewusster Umgang mit KI

Die Banken nutzen eine Kombination aus eigenen KI-Tools und solchen, die von externen Anbietern erworben wurden. Citigroup führt eine Sammlung von Werkzeugen ein, die wichtige Informationen aus öffentlichen Einreichungen synthetisieren können. AI @ Morgan Stanley übernimmt wiederkehrende Aufgaben mit einer ChatGPT-ähnlichen Schnittstelle. Die private Vermögensverwaltung von Goldman verwendet KI zur Bewertung von Portfolios und zur Analyse zahlreicher zugrunde liegender Positionen.

“Es ist von entscheidender Bedeutung, einen verantwortungsbewussten Ansatz zu verfolgen und Kontrollen anzuwenden, um sich vor möglichen Ungenauigkeiten und Halluzinationen zu schützen,” erklärte der Chief Information Officer von Goldman, Marco Argenti, letzte Woche auf der Bloomberg Invest-Konferenz in New York.

Herausforderungen durch Cyberkriminalität

Die Herausforderungen durch Cyberkriminalität nehmen ebenfalls zu, da Kriminelle zunehmend KI nutzen, um ihre Aktivitäten zu optimieren. Laut einer aktuellen globalen Umfrage von Accenture unter 600 Cybersecurity-Experten im Bankwesen haben deren Teams Schwierigkeiten, mit den Bemühungen ihrer Organisationen zur Einführung von KI Schritt zu halten. Unter den Befragten glauben 80%, dass generative KI Kriminelle schneller ermächtigt als die Banken darauf reagieren können.

Morgan Stanley stellte in seinem neuesten Jahresbericht fest, dass generative KI, Homeoffice und die Integration von Technologien von Drittanbietern Risiken für die Datenprivatsphäre darstellen könnten. Die durch den Einsatz von KI im Homeoffice eingeführten Risiken erfordern, dass Unternehmen Regeln aufstellen, um Probleme zu vermeiden.

“Diese Schritte werden nur an Bedeutung gewinnen,” fügte Shorten hinzu, “da Angreifer durch diese Technologie schneller ermächtigt werden, als die Banken reagieren können.”

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...