Vereinigung des KI-Risikomanagements: Überbrückung der Lücken in der Governance

Da künstliche Intelligenz zunehmend in das Gefüge unseres Lebens eingewoben wird, hat die Notwendigkeit, ihre potenziellen Risiken zu managen, die Entwicklung zahlreicher Rahmenwerke und Standards vorangetrieben. Obwohl diese Initiativen gemeinsame Ziele verfolgen, droht ihre Fragmentierung den verantwortungsvollen und vertrauenswürdigen Einsatz von KI zu behindern. Das Verständnis der Ansätze, die unternommen werden, um diese Kluften zu überbrücken und eine größere Konsistenz und Interoperabilität im KI-Risikomanagement zu fördern, ist daher von entscheidender Bedeutung. Diese Untersuchung befasst sich mit den wichtigsten Strategien, die darauf abzielen, diese komplexe Landschaft zu vereinheitlichen, und untersucht, wie Zusammenarbeit, Harmonisierung und praktische Instrumente den Weg für eine effektivere und abgestimmte KI-Governance ebnen können.

Welche Ansätze werden verwendet, um eine größere Konsistenz und Interoperabilität im KI-Risikomanagement zu fördern?

Mit zunehmender Reife der KI-Governance entstehen zahlreiche Risikomanagement-Frameworks und -Standards. Um Fragmentierung zu verhindern und eine effektive Umsetzung von vertrauenswürdiger KI sicherzustellen, wird ein Vorstoß für mehr Konsistenz und Interoperabilität unternommen. Dies beinhaltet die Zusammenarbeit zwischen staatlichen und nichtstaatlichen Akteuren, sowohl im Inland als auch international, mit Schwerpunkt auf KI-Risikomanagement, Design (z. B. „Vertrauenswürdigkeit durch Design“) und Folgenabschätzungen.

Wichtige Ansätze zur Interoperabilität:

  • Framework-Mapping: Der Vergleich und die Abbildung verschiedener KI-Risikomanagement-Frameworks ist ein grundlegender Schritt. Ziel ist es, Bereiche funktionaler Äquivalenz und Divergenz zwischen diesen Frameworks zu identifizieren.
  • Gemeinsame Risikomanagement-Schritte: Die meisten Frameworks stimmen mit vier übergeordneten Schritten überein: „DEFINIEREN“ (Umfang, Kontext und Kriterien), „BEWERTEN“ (Risiken auf individueller, aggregierter und gesellschaftlicher Ebene), „BEHANDELN“ (Risiken zur Minderung negativer Auswirkungen) und „VERWALTEN“ (Risikomanagementprozesse). Diese Schritte bilden eine gemeinsame Struktur für die Interoperabilität.
  • Umgang mit Governance-Unterschieden: Frameworks unterscheiden sich oft darin, wie sie die Funktion „VERWALTEN“ handhaben. Einige beinhalten explizit Governance-Aktivitäten, während andere sie über den gesamten Risikomanagementprozess verteilen oder ganz weglassen. Die Harmonisierung der Governance-Ansätze ist entscheidend.
  • Konzeptionelle und terminologische Angleichung: Die Analyse von Schlüsselkonzepten und Terminologie in verschiedenen Initiativen ist unerlässlich. Die Identifizierung von Bereichen mit Konsens und inkompatiblen Komponenten kann dazu beitragen, Debatten über Konzepte wie Transparenz, Erklärbarkeit und Interpretierbarkeit zu klären.
  • Due-Diligence-Frameworks: Die Nutzung bestehender Due-Diligence-Frameworks, wie z. B. der OECD-Leitsätze für die Erfüllung der Sorgfaltspflicht zur Förderung verantwortungsvollen unternehmerischen Handelns (OECD DDG), zur Entwicklung bewährter Praktiken für verantwortungsvolle KI ist ein vielversprechender Weg.
  • Angleichung der Zertifizierungssysteme: Die Erforschung und Analyse der Angleichung von KI-Zertifizierungssystemen an die OECD-Leitsätze für verantwortungsvolles unternehmerisches Handeln (RBC) und KI-Standards kann die Qualität, Vergleichbarkeit und Interoperabilität dieser Systeme verbessern.
  • Interaktive Tools: Die Entwicklung von Online-Tools, die es Organisationen und Stakeholdern ermöglichen, Frameworks zu vergleichen und durch bestehende Methoden, Tools und bewährte Praktiken für das KI-Risikomanagement zu navigieren, kann die Interoperabilität erleichtern.

Obwohl die allgemeinen Ansätze übereinstimmen, bestehen vor allem bei der Funktion „VERWALTEN“ Unterschiede auf hoher Ebene. Auch der Umfang der einzelnen Frameworks führt zu Inkonsistenzen. Zum Beispiel berücksichtigt die OECD DDG Risiken im Zusammenhang mit Geschäftsbeziehungen umfassender, während sich ISO 31000, NIST AI RMF, HUDERIA, EU AIA, AIDA und IEEE 7000-21 auf eher produktzentrierte oder wertgetriebene Ansätze für das Management von KI-Risiken konzentrieren. Die Bewältigung dieser Unterschiede wird der Schlüssel zur Förderung eines konsistenten und interoperablen KI-Risikomanagements sein.

Welche Hauptunterschiede lassen sich zwischen verschiedenen AI-Risikomanagement-Frameworks beobachten?

AI-Risikomanagement-Frameworks nähern sich einem Kernbestand an Prinzipien an, aber es bestehen weiterhin erhebliche Unterschiede in ihrem Ansatz. Diese Diskrepanzen drehen sich hauptsächlich um die Funktion „GOVERN“, die Elemente wie Überwachung, Kommunikation, Dokumentation, Beratung und die Verankerung von Risikomanagementpraktiken umfasst.

Während die meisten Frameworks versuchen, AI-Risiken zu „DEFINIEREN“, „BEWERTEN“ und „BEHANDELN“, gehen die Methoden zur Steuerung dieser Prozesse erheblich auseinander.

Governance-Ansätze: Unterschiedliche Schwerpunkte

Einige Frameworks integrieren diese Governance-Aktivitäten explizit unter einer eigenen „GOVERN“-Funktion, während andere sie über den gesamten Risikomanagement-Lebenszyklus verteilen oder ganz weglassen.

Zum Beispiel:

  • Der EU AI Act (EU AIA) und der Canada AI and Data Act (AIDA) verpflichten Anbieter von risikoreichen AI-Systemen, Risiken zu identifizieren, zu analysieren und zu mindern. Beratung und die Verankerung des Risikomanagements in der Unternehmenskultur fehlen jedoch.
  • Der Entwurf des Europarats für eine Risiko- und Folgenabschätzung für Menschenrechte, Demokratie und Rechtsstaatlichkeit (HUDERIA) ist teilweise angepasst, Elemente im Zusammenhang mit GOVERN sind jedoch nicht vorhanden.
  • ISO/IEC Guide 51 zielt darauf ab, die Entwicklung von Produktsicherheitsstandards zu unterstützen, und beinhaltet nicht die Verankerung von Risikomanagementrichtlinien und die Beratung von Interessengruppen.

Umfang und Fokus: Eine Frage der Perspektive

Frameworks unterscheiden sich auch in ihrem Umfang, ihrer Zielgruppe und ihrer Risikolandschaft, was zu unterschiedlichen Governance-Ansätzen führt.

  • OECD DDG: Ein breiterer Umfang umfasst Risiken im Zusammenhang mit Geschäftsbeziehungen. Sie empfiehlt die Risikominderung beim Verkauf und Vertrieb von Waren.
  • ISO 31000: Ein engerer Umfang berücksichtigt Risiken und Auswirkungen auf die Organisation.
  • NIST AI RMF: Konzentriert sich auf Schäden für Menschen, Organisationen und Ökosysteme.
  • HUDERIA: Behandelt Risiken für Menschenrechte, Demokratie und Rechtsstaatlichkeit.
  • EU AIA & AIDA: Verfolgt einen Produktsicherheitsansatz
  • IEEE 7000-21: Integriert wertebasierte Überlegungen und die Ansichten von Interessengruppen in das Produkt- oder Dienstleistungsdesign.
  • Zielgruppe: Die OECD DDG- und ISO-Standards richten sich an Organisationsveränderungen auf Vorstandsebene. Die anderen bieten Empfehlungen auf Vorstandsebene, die Umsetzung erfolgt jedoch hauptsächlich auf technischer Ebene.

Der EU AIA und AIDA beinhalten auch ein einzigartiges regulatorisches Merkmal, bei dem Regulierungsbehörden definieren, was ein „risikoreiches“ System ausmacht, wodurch die Risikomanagementbemühungen für Unternehmen effektiv priorisiert werden.

Welche zukünftigen Maßnahmen sind zur Verbesserung der AI-Risikomanagementpraktiken geplant?

Mehrere strategische Initiativen sind in Vorbereitung, um das AI-Risikomanagement zu stärken, wobei der Schwerpunkt auf der Förderung von Interoperabilität und praktischer Umsetzung liegt. Hier ist ein Überblick über die wichtigsten Bereiche:

Harmonisierung von AI-Terminologie und -Konzepten

Der nächste unmittelbare Schritt beinhaltet ein tiefes Eintauchen in die Gemeinsamkeiten und Unterschiede in der Sprache und den Konzepten, die in verschiedenen AI-Folgenabschätzungs- und Risikomanagement-Frameworks verwendet werden. Dies wird Folgendes umfassen:

  • Identifizierung von Definitionen und Konzepten, die einen breiten Konsens haben.
  • Herausfiltern potenziell inkompatibler oder unklarer Bereiche, die die praktische Umsetzung behindern könnten. Zum Beispiel Debatten über die Bedeutung von Transparenz, Erklärbarkeit und Interpretierbarkeit.
  • Entwicklung eines gemeinsamen Verständnisses der AI-Wertschöpfungskette, einschließlich der verschiedenen beteiligten Akteure und der verschiedenen Risiken in jeder Phase.

Entwicklung von Good Practices für verantwortungsvolles unternehmerisches Verhalten im Bereich der KI

Ein vielversprechender Ansatz zur Umsetzung des AI-Risikomanagements ist die Nutzung der bestehenden Rahmenbedingungen für verantwortungsvolles unternehmerisches Handeln. Dies würde die Angleichung spezifischer AI-Terminologie und -Frameworks an die Grundsätze der OECD-Leitsätze für multinationale Unternehmen (MNE) und die Due-Diligence-Anleitung (DDG) umfassen. Zu den Ergebnissen könnten Workshops und umsetzbare Richtlinien gehören, die verdeutlichen, wie die Grundsätze der Due-Diligence-Anleitung für verantwortungsvolles unternehmerisches Handeln speziell auf KI angewendet werden könnten.

Angleichung von Zertifizierungssystemen an RBC- und AI-Standards

Um die Qualität, Vergleichbarkeit und Interoperabilität von Zertifizierungsstandards und -initiativen zu verbessern, entwickelt die OECD ein Alignment-Assessment-Verfahren, um die Angleichung von Initiativen an die Empfehlungen der OECD-DDG zu bewerten. Dieser Schritt bereitet den Weg für die Abgabe konkreter Empfehlungen zur Umsetzung und Angleichung von AI-Praktiken an Responsible Business Conduct (RBC)-Praktiken und umgekehrt:

Entwicklung eines interaktiven Online-Tools

Ein interaktives Online-Tool würde erstellt, um Organisationen und Interessengruppen beim Vergleich von Frameworks zu unterstützen. Dieses Tool wird sowohl Vergleichs-Frameworks umfassen, die aus den zuvor genannten Schritten abgeleitet wurden, als auch Benutzern helfen, sich in bestehenden Methoden, Tools und Good Practices zur Identifizierung, Bewertung, Behandlung und Steuerung von AI-Risiken zurechtzufinden. Dies würde mit dem Katalog von Tools und Metriken für vertrauenswürdige KI verknüpft.

Wenn es um die Steuerung von KI-Risiken geht, ist eine wichtige Erkenntnis aus einem aktuellen OECD-Bericht, dass, während verschiedene KI-Risikomanagement-Frameworks im Allgemeinen auf hoher Ebene übereinstimmen – DEFINIEREN, BEWERTEN, BEHANDELN und STEUERN –signifikante Unterschiede in der Art und Weise auftreten, wie sie die „STEUERN“-Funktion angehen. Dies beeinträchtigt die Interoperabilität dieser Frameworks.

Wesentliche Unterschiede in der Steuerung

Hier ist eine Aufschlüsselung der Kernbereiche, in denen die Steuerungsansätze auseinandergehen:

  • Explizite vs. Verteilte Steuerung: Einige Frameworks beinhalten explizit Steuerungsaktivitäten unter einer bestimmten „STEUERN“-Funktion, während andere sie über den Risikomanagementprozess verteilen oder weglassen.
  • Einbindung von Stakeholdern: Bestimmte Vorschriften, wie der vorgeschlagene EU AI Act (EU AIA) und der Canada AI and Data Act (AIDA), können Konsultationsanforderungen mit internen und externen Stakeholdern vermissen lassen – ein wichtiger Aspekt der „STEUERN“-Funktion gemäß den OECD-Leitlinien zur Interoperabilität.
  • Einbettung des Risikomanagements: In ähnlicher Weise wird die Einbettung des Risikomanagements in die Organisationskultur – ein weiteres „STEUERN“-Element – nicht immer explizit in den vorgeschlagenen Gesetzen angesprochen.

Regulatorische Überlegungen

Mehrere wichtige regulatorische Nuancen wirken sich auf die „STEUERN“-Funktion aus:

  • EU AI Act und AIDA: Obwohl diese vorgeschlagenen Gesetze die Identifizierung, Analyse und Minderung von Risiken für KI-Systeme mit hohem Risiko erfordern, scheinen sie einige „STEUERN“-Risikomanagementmaßnahmen aus dem Interoperabilitäts-Framework zu vermissen, wie z. B. die Konsultation von Stakeholdern. Artikel 17 des EU AI Act erfordert jedoch ein „Qualitätsmanagementsystem“, um die Einhaltung sicherzustellen, das möglicherweise Risikomanagement und Rechenschaftspflicht beinhaltet.
  • HUDERIA: Der Entwurf des Europarats für eine Risikobewertung in Bezug auf Menschenrechte, Demokratie und Rechtsstaatlichkeit (HUDERIA) ist teilweise ausgerichtet, scheint aber Elemente aus dem Interoperabilitäts-Framework in Bezug auf STEUERN zu vermissen, wie z. B. die öffentliche Kommunikation über die Einhaltung von Standards und die Einbeziehung der Führungskräfte in die Einbettung des Risikomanagements im gesamten Unternehmen.
  • NIST AI RMF: Obwohl das Dokument die Unterelemente von STEUERN innerhalb seiner Schritte enthält, sind diese in die verschiedenen Frameworks integriert.

Praktische Auswirkungen

Für Fachleute in den Bereichen KI-Steuerung und Compliance haben diese Diskrepanzen in der „STEUERN“-Funktion erhebliche Auswirkungen:

  • Komplexität und Kosten: Ein Mangel an Interoperabilität zwischen den Frameworks kann die Implementierung einer vertrauenswürdigen KI verkomplizieren und die damit verbundenen Kosten erhöhen.
  • Wirksamkeit und Durchsetzbarkeit: Nicht interoperable Frameworks können die Wirksamkeit und Durchsetzbarkeit von KI-Risikomanagementbemühungen verringern.
  • Anpassung ist der Schlüssel: Der Kontext der ISO 31000-Norm empfiehlt, sie an jedes Unternehmen und seine spezifischen Kontexte anzupassen.

Handlungsaufforderung

Um eine effektive KI-Steuerung zu gewährleisten, sollten Rechtstechnologie-Experten, Compliance-Beauftragte und Politikanalysten sich für Folgendes einsetzen:

  • Kooperation und Koordination: Förderung der Zusammenarbeit zwischen den Entwicklern von Standards und Frameworks, sowohl im Inland als auch international.
  • Klare Metriken: Priorisierung klarer Metriken und Definitionen, um eine konsistente Risikomanagement-Implementierung über verschiedene Anwendungsfälle hinweg zu gewährleisten.
  • Angleichung an breitere Geschäftspraktiken: Verknüpfung der KI-Steuerung mit Frameworks für verantwortungsvolles Geschäftsverhalten wie der OECD Due Diligence Guidance.

Für die Zukunft sollte der Schwerpunkt auf der Harmonisierung der KI-Steuerungsansätze und der Gewährleistung der Interoperabilität für ein praktisches und durchsetzbares KI-Risikomanagement liegen.

Letztlich erfordert die Förderung vertrauenswürdiger KI nicht nur eine konsequente Risikobewertung, sondern vor allem eine harmonisierte Governance. Während breite Übereinstimmung in der Definition, Bewertung und Behandlung von Risiken besteht, stellen grundlegende Unterschiede in der Steuerung dieser Prozesse ein erhebliches Hindernis für eine effektive Implementierung dar. Die Überbrückung dieser Lücken, insbesondere in Bezug auf die Einbindung von Interessengruppen, die Verankerung des Risikomanagements und die Integration wertorientierten Geschäftsverhaltens, ist entscheidend. Durch die Priorisierung von Zusammenarbeit, klaren Metriken und der Anpassung an etablierte Due-Diligence-Rahmen können Rechts-, Compliance- und Politikexperten den Weg für praktisch durchsetzbare und wirklich verantwortungsvolle KI-Systeme ebnen.

More Insights

AI-Rüstungswettlauf und die Auswirkungen von Tarifen auf den EU-AI-Gesetz

Tarife können sowohl als Hindernis als auch als potenzieller Katalysator für den Fortschritt von KI und Automatisierung wirken. In Kombination mit dem EU-KI-Gesetz ergeben sich komplexe...

Europäische Kommission: Aktionsplan für KI-Souveränität

Die Europäische Kommission hat ihren AI Continent Action Plan veröffentlicht, der darauf abzielt, Europa als globalen Führer im Bereich der künstlichen Intelligenz zu etablieren. Der Plan umfasst eine...

Die AI-Herausforderung: Singapur zwischen Innovation und Regulierung

Singapur steht vor der Herausforderung, ein Gleichgewicht zwischen Innovation und Regulierung im Bereich der Künstlichen Intelligenz (KI) zu finden. Angesichts von Bedenken hinsichtlich Datenschutz...

Verantwortliche KI im Finanzsektor

Lexy Kassan diskutiert die entscheidenden Aspekte von verantwortungsbewusstem KI-Einsatz, insbesondere im Hinblick auf regulatorische Aktualisierungen wie den EU AI Act und dessen Auswirkungen auf die...

Menschzentrierte KI: Wegbereiter für ethische und verantwortungsvolle KI-Agenten

In der sich ständig weiterentwickelnden Landschaft der künstlichen Intelligenz gewinnt das Gespräch über human-zentrierte KI (HCAI) an erheblicher Bedeutung. Diese Paradigmenwechsel ist nicht nur eine...

Der EU AI Act: Grundlagen der Regulierung von Künstlicher Intelligenz

Der EU AI Act markiert den Beginn einer neuen Ära der Regulierung von künstlicher Intelligenz in Europa. Er schafft ein einheitliches rechtliches Regime für alle EU-Mitgliedstaaten und zielt darauf...

EU-Kommission präsentiert Aktionsplan für KI-Entwicklung

Am 9. April 2025 verabschiedete die Europäische Kommission eine Mitteilung über den sogenannten AI Continent Action Plan – ihre Strategie zur Gestaltung der nächsten Phase der KI-Entwicklung in...

Aktualisierte KI-Modellvertragsklauseln der EU veröffentlicht

Die Gemeinschaft der Praxis der EU für öffentliche Beschaffung von KI hat am 5. März 2025 eine aktualisierte Version ihrer nicht verbindlichen EU AI-Modellvertragsklauseln veröffentlicht. Diese...

EU AI Gesetz: Emotionale Erkennungssysteme am Arbeitsplatz unter der Lupe

Emotionserkennungs-KI bezieht sich auf KI, die biometrische Daten wie Gesichtsausdrücke und Stimme verwendet, um Emotionen zu identifizieren und zu analysieren. Der EU AI Act verbietet die Verwendung...