Stakeholder fordern BMA zur Vermeidung redundanter KI-Strukturen auf

Stakeholder fordern BMA zur Vermeidung doppelter KI-spezifischer Strukturen auf

Risiken im Zusammenhang mit künstlicher Intelligenz werden weitgehend durch bestehende regulatorische Rahmenbedingungen angesprochen, wie die Stakeholder der Behörde während der Erstellung eines Diskussionspapiers mit dem Titel „Der verantwortungsvolle Einsatz von künstlicher Intelligenz im Finanzdienstleistungssektor“ mitteilten.

Dies umfasst Unternehmensführung, Verhaltensweisen, Risikomanagement, Cyber-Risiken, operationale Resilienz und Anforderungen an die Überwachung Dritter. Die Stakeholder ermutigten die Behörde, doppelte KI-spezifische Strukturen zu vermeiden und stattdessen KI-Aspekte in etablierte Rahmenbedingungen des Unternehmensrisikomanagements zu integrieren.

Ansatz zur KI-Governance

Die Befragten äußerten breite Unterstützung für den vorgeschlagenen ergebnisorientierten und prinzipiengeleiteten Ansatz zur KI-Governance. Die Behörde stellte fest, dass die Befragten allgemein einig waren, dass KI bedeutende Vorteile bei verantwortungsvollem Einsatz bringen kann, einschließlich Effizienzsteigerungen, Risikomanagement, Compliance und Marktintegrität.

Viele Stakeholder wiesen jedoch auf die Gefahr von zu detaillierten oder technologie-spezifischen Anforderungen hin, da sich die Technologie schnell entwickelt und strenge Regeln schnell veraltet sein könnten. Die Behörde bestätigte ihre Absicht, einen angemessenen, technologie-neutralen Überwachungsansatz beizubehalten.

Erwartete Vorteile und Risiken

Einige Befragte schlugen vor, dass die Proportionalität die erwarteten Vorteile oder Wettbewerbsvorteile der KI-Nutzung expliziter anerkennen sollte. Andere betonten, dass die KI-Governance über traditionelle operationale Risikobetrachtungen hinausgehen sollte, da KI-gestützte Geschäftsänderungen potenziell transformativ sein können.

Die Behörde erkannte an, dass Vorstände und das obere Management strategische Vorteile berücksichtigen, wenn sie entscheiden, ob sie KI-gestützte Lösungen verfolgen. KI könnte bestehende Risikotreiber in den Bereichen operationale, verhaltensbezogene, Daten-, Cyber- und strategische Risiken verstärken oder beschleunigen.

Marktintegrität und finanzielle Stabilität

Einige Stakeholder wiesen auf die zunehmende Nutzung von KI in den Bereichen Investition, Handel, Marktüberwachung und Forschung hin und die potenziellen Auswirkungen auf die Marktintegrität und finanzielle Stabilität. Die Rückmeldungen hoben Risiken hervor, die mit korreliertem oder Herdverhalten, beschleunigten Marktdynamiken unter Stress, der Abhängigkeit von alternativen oder unstrukturierten Datenquellen und der Möglichkeit von KI-gestützter Marktmanipulation oder irreführenden Offenlegungen in Bezug auf KI-Fähigkeiten verbunden sind.

Die Behörde stellte fest, dass es internationale Aufsichtsbehörden gibt, die nach der Veröffentlichung des Diskussionspapiers Hinweise zu unbeabsichtigten oder emergenten Verhaltensweisen gegeben haben, die aus Interaktionen zwischen unabhängig eingesetzten KI-Systemen resultieren könnten, insbesondere im Kontext der Kapitalmärkte.

Internationale regulatorische Ausrichtung

Die Stakeholder betonten die Bedeutung der internationalen regulatorischen Ausrichtung, insbesondere für Unternehmen, die unter gruppenweiten KI-Governance-Rahmen arbeiten und mehreren regulatorischen Regimen entsprechen müssen. Praktische Herausforderungen wurden in Bezug auf Fähigkeiten, Ressourcen, unabhängige Validierung und Integration in bestehende Systeme, insbesondere für kleinere oder weniger komplexe Institutionen, identifiziert.

Die Behörde erkannte die Wichtigkeit einer schrittweisen Implementierung, einer Überwachung durch die Aufsichtsbehörden und eines fortlaufenden Dialogs, um die proportionale und effektive Einführung von KI-Governance-Praktiken zu unterstützen.

Schlussfolgerung

Die Behörde plant, weiterhin mit den Stakeholdern zu kommunizieren und internationale Entwicklungen zu überwachen, um ihre Analyse der bestehenden regulatorischen Anforderungen, aktuellen Marktpraktiken und der im Diskussionspapier skizzierten Prinzipien zu informieren und sicherzustellen, dass die Rahmenbedingungen angemessen sind. Das Ziel der Behörde ist es, verantwortungsvolle Innovationen zu unterstützen, während sichergestellt wird, dass alle Verbesserungen der Aufsichtserwartungen praktisch und risikobasiert sind und unnötige Doppelarbeit oder unbeabsichtigte regulatorische Belastungen vermeiden.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...