AI-Compliance: Herausforderungen und Lösungen

Wenn KI auf Compliance angewendet wird: Der ECCP als Leitfaden

Die E-Mail kommt ohne Vorwarnung. Das Unternehmen hat eine KI-Plattform ausgewählt. Die IT integriert sie bereits, und ein Pilotprojekt läuft. Der Vorstand ist an Bord und begeistert. Der Chief Compliance Officer wurde gebeten, innerhalb einer Woche „Governance“ bereitzustellen.

Wo fängt man an?

Die Antwort ist einfach. Man kann mit der Evaluierung von Unternehmens-Compliance-Programmen (ECCP) des U.S. Department of Justice (DOJ) von 2024 beginnen.

Der ECCP macht Folgendes deutlich: Staatsanwälte werden beurteilen, wie Unternehmen Risiken identifizieren, verwalten und kontrollieren, die aus neuen und aufkommenden Technologien, einschließlich Künstlicher Intelligenz, resultieren, sowohl in den Geschäftsbetrieben als auch innerhalb der Compliance-Programme selbst. Innerhalb dieses Mandats finden sich Informationen, die als Ausgangspunkt für diese Management-Anfrage dienen können.

KI als Risikoanalyse-Thema umformulieren

Der erste Schritt besteht darin, KI nicht als technische Implementierung zu betrachten, sondern als Verpflichtung zur Risikoanalyse. Der ECCP ist klar: Risikoanalysen müssen sich weiterentwickeln, während sich interne und externe Risiken ändern, und er erwähnt speziell KI als Technologie, die eine affirmative Analyse erfordert. Staatsanwälte werden fragen, ob das Unternehmen bewertet hat, wie KI die Einhaltung von Strafgesetzen beeinflussen könnte, ob KI-Risiken in das unternehmerische Risikomanagement integriert wurden und ob Kontrollen bestehen, um sicherzustellen, dass KI nur für die vorgesehenen Zwecke verwendet wird.

Inventar erstellen, bevor Richtlinien entworfen werden

Der ECCP belohnt keine ehrgeizigen Richtlinien, die nicht durch Fakten unterstützt werden. Staatsanwälte möchten verstehen, warum ein Unternehmen sein Compliance-Programm so strukturiert hat, wie es ist. Vor dem Entwurf von Governance-Rahmenbedingungen für KI muss die Compliance ein vollständiges Inventar der KI-Nutzung fordern:

  • Welche Tools sind im Einsatz oder werden getestet;
  • Welche Geschäftsbereiche nutzen sie;
  • Welche Daten werden verarbeitet; und
  • Ob die Ergebnisse beratend oder entscheidungsbeeinflussend sind.

Dieses Inventar sollte ausdrücklich die Nutzung von generativen KI-Tools durch Mitarbeiter umfassen. Der ECCP betont das Management von Insider-Missbrauch und unbeabsichtigten Folgen der Technologie. Unmanaged „Shadow AI“-Nutzung ist jetzt ein Compliance-Fehler, kein IT-Unannehmlichkeit.

Fokus auf Entscheidungsintegrität, nicht auf Modellgestaltung

Einer der am meisten übersehenen Einblicke des ECCP ist, dass das DOJ Ergebnisse und Verantwortlichkeit bewertet, nicht technische Eleganz. Wenn KI verwendet wird, werden Staatsanwälte fragen:

  • Welche Entscheidungen wurden von der KI beeinflusst;
  • Welche Grundlage menschlicher Urteilsbildung existierte; und/oder
  • Wie wurde die Verantwortlichkeit zugewiesen und durchgesetzt.

Compliance-Beauftragte sollten daher die Governance um Entscheidungen und nicht um Algorithmen zentrieren. Wenn niemand erklären kann, wie ein KI-Ergebnis bewertet, angepasst oder eskaliert wurde, kann das Unternehmen nicht nachweisen, dass sein Compliance-Programm in der Praxis funktioniert. Der ECCP fragt ausdrücklich, welche „Basis menschlicher Entscheidungsfindung“ verwendet wird, um KI-Ausgaben zu bewerten, und wie die Verantwortlichkeit über die Nutzung von KI überwacht und durchgesetzt wird. Das übersetzt sich direkt in eine der am häufigsten verwendeten Phrasen zur KI: den Menschen im Prozess. Diese Kontrollen müssen real, dokumentiert und befugt sein.

Erklärbarkeit für Vorstände und Aufsichtsbehörden verlangen

Das DOJ erwartet nicht, dass Vorstände die Architektur des maschinellen Lernens verstehen. Es erwartet jedoch, dass die Vorstände informierte Aufsicht ausüben. Der ECCP fragt wiederholt, ob die Compliance Risiken, Kontrollen und Fehler der Geschäftsführung und dem Vorstand erklären kann. Wenn ein Compliance-Beauftragter nicht in einfacher Sprache erklären kann, wie KI Compliance-Entscheidungen beeinflusst, ist das Programm nicht verteidigbar. Jeder wesentliche KI-Anwendungsfall sollte eine vorstandsfähige Erzählung haben:

  • Warum KI verwendet wird;
  • Welche Risiken sie schafft;
  • Wo menschliches Urteil eingreift; und
  • Wie Fehler erkannt und korrigiert werden.

Dies ist nicht optional. Staatsanwälte werden prüfen, welche Informationen die Vorstände geprüft haben und wie sie ihre Aufsicht ausgeübt haben.

KI-Governance in bestehende Kontrollen integrieren

Der ECCP warnt vor „Papierprogrammen“. Das bedeutet, dass KI-Governance nicht in separaten Richtlinien-Silos sitzen kann. KI-bezogene Kontrollen müssen mit bestehenden Compliance-Strukturen wie Ermittlungsprotokollen, Meldemechanismen, Schulungen, internen Audits und Datenmanagement integriert werden. Wenn KI Fehlverhalten identifiziert, wie wird das eskaliert? Wenn KI Ermittlungen unterstützt, wie werden Ergebnisse bewahrt und dokumentiert? Wenn KI Schulungen unterstützt, wie wird die Effektivität gemessen? Das DOJ wird nach Konsistenz in Ansatz, Dokumentation und Überwachung suchen, nicht nach Neuheit.

Ressourcen und Autorität einfordern

Der ECCP widmet erhebliche Aufmerksamkeit der Frage, ob Compliance-Funktionen angemessen ausgestattet, befugt und autonom sind. Dies gilt typischerweise für Compliance-Beauftragte und Fachleute. Es wäre eine logische Erweiterung, dass, wenn die Verantwortung für die KI-Governance der Compliance zugewiesen wird, die Compliance Zugang zu Daten, technischen Erklärungen und Eskalationsautorität haben muss. Die Zuweisung von Verantwortung ohne Ressourcen ist nach Auffassung des DOJ ein Beweis für ein Programm, das nicht in gutem Glauben angewendet wird. Ein erzwungener Auftrag ohne Finanzierung oder Autorität stellt selbst ein Compliance-Risiko dar.

Die Entwicklung dokumentieren

Schließlich müssen Compliance-Beauftragte nicht nur Kontrollen, sondern auch die Entwicklung dokumentieren. Der ECCP betont wiederholt kontinuierliche Verbesserung, Tests und Überarbeitungen. KI-Governance wird nicht perfekt sein. Das DOJ erwartet keine Perfektion. Es erwartet Beweise dafür, dass das Unternehmen Risiken identifiziert, Kontrollen getestet, aus Fehlern gelernt und Anpassungen vorgenommen hat. Protokolle, Überprüfungen von Pilotprojekten, Risikoanalysen und Abhilfemaßnahmen sind alle wichtig. Was heißt das? Dokumentieren, dokumentieren, dokumentieren.

Fazit

Wenn KI auf Compliance angewendet wird, kann Widerstand verständlich sein, ist aber letztendlich ineffektiv. Das DOJ ist bereits über die Frage hinaus, ob KI geregelt werden sollte. Die einzige verbleibende Frage ist, ob die Governance glaubwürdig ist. Für den heutigen Compliance-Beauftragten ist KI-Governance nicht länger optional, technisch oder theoretisch. Es ist ein praktischer Test dafür, ob das Compliance-Programm gut gestaltet, befugt und in der Praxis funktioniert.

Wenn Sie als Compliance-Fachmann nur von der Nutzung von KI in Ihrer Organisation hören, wenn dieser Auftrag weitergegeben wird, benötigen Sie wirklich einen Platz am Tisch.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...