AI-Washing: Die neue Herausforderung für die Compliance

AI-Washing: Die neue Form des Greenwashing – Wie die Emerging Technologies Unit der SEC die Compliance-Landschaft neu gestaltet

Die Gründung der Cybersecurity & Emerging Technologies Unit (CETU) der US-amerikanischen Wertpapier- und Börsenaufsichtsbehörde (SEC) markiert einen entscheidenden Wandel in der Herangehensweise der Regulierungsbehörden an künstliche Intelligenz. Was einst als Marketingoptimismus begann, hat sich zu einem regulierten Bereich mit echtem Durchsetzungsvermögen entwickelt. Die Mission der CETU umfasst die Untersuchung von KI-Betrug, KI-Themenbetrügereien, Cybersecurity-Täuschungen und falschen oder irreführenden Aussagen über aufkommende Technologien.

AI-Washing vs. Greenwashing: Zwei Seiten derselben Medaille der Fehlrepräsentation

Regulierungsbehörden verfolgen Unternehmen seit über einem Jahrzehnt wegen Greenwashing – falscher Umweltbehauptungen, die darauf abzielen, Investoren oder Kunden anzuziehen. Jetzt taucht AI-Washing als die nächste große Herausforderung auf. Gemeinsame Merkmale beider Praktiken sind:

  • Übertriebene Behauptungen in Marketing oder Offenlegungen;
  • Mangel an unterstützenden Beweisen;
  • Ansprache von Investorenstimmungen (Nachhaltigkeit, Innovation, ESG, „KI-gesteuerte“ Lösungen);
  • Versäumnis, Einschränkungen oder Risiken offenzulegen;
  • Druck aus wettbewerbsintensiven Märkten, der Übertreibungen fördert;
  • Untersuchungen durch Whistleblower;
  • Wesentliche Fehlrepräsentationen gemäß Wertpapierrecht;
  • Irreführende Werbung gemäß Wettbewerbsrecht.

AI-Washing kann sogar noch problematischer sein, da es Behauptungen über Algorithmen, Automatisierung oder Risikomodelle beinhaltet, auf die sich Investoren verlassen. Dies führt zu regulatorischen Maßnahmen und einer Verschärfung der Überprüfungen.

CETU: Die Durchsetzungsreaktion der SEC auf AI-Washing

Die CETU ist mit der Untersuchung irreführender KI-Offenlegungen und KI-gesteuerter Täuschungen beauftragt. Der Aufbau auf den ersten Durchsetzungsmaßnahmen der SEC gegen AI-Washing im Jahr 2024 zeigt eine Veränderung in der US-amerikanischen Herangehensweise: Wer KI-Fähigkeiten beansprucht, muss diese nachweisen.

Vergleich mit dem Vereinigten Königreich, der EU und Kanada

Im Vereinigten Königreich wird AI-Washing indirekt durch Regelungen der FCA angegangen, die klare, faire und nicht irreführende Kommunikation verlangen. Die EU führt den AI Act ein, der Transparenz- und Dokumentationspflichten sowie risikobasierte Kategorisierungen von KI-Systemen umfasst. In Kanada warnen die Canadian Securities Administrators (CSA) ausdrücklich vor AI-Washing und könnten ähnliche Regelungen wie in der EU einführen.

Wie Unternehmen AI-Washing (und Greenwashing) bekämpfen können: Wesentliche Schritte

Um sowohl AI-Washing als auch Greenwashing zu bekämpfen, müssen Unternehmen strukturelle, fortlaufende und überprüfbare Kontrollen implementieren. Die erforderlichen Schritte umfassen:

  1. Nachweisbare Ansprüche

    Führen Sie technische Dokumentationen, die jede KI- oder Nachhaltigkeitsbehauptung untermauern.

  2. Interne Überprüfung

    KI-Behauptungen müssen eine Überprüfung durch verschiedene Abteilungen durchlaufen.

  3. Vermeidung von Superlativen ohne Beweis

    Vermeiden Sie übertriebene Begriffe, die nicht durch messbare Beweise gestützt sind.

  4. Dokumentation von Einschränkungen

    Offenlegung bekannter Risiken und Genauigkeitsgrenzen.

  5. Etablierung von Governance-Strukturen

    Um sicherzustellen, dass die Governance vor Whistleblower-Beschwerden implementiert wird.

Warum das wichtig ist: KI-Hype wird zu einer rechtlichen Haftung

Die Lehren aus dem Greenwashing sind klar: Wenn Märkte gewagte Behauptungen belohnen, übertreiben Unternehmen. Mit CETU hat die SEC erklärt, dass KI-Darstellungen nun eine Frage der Integrität von Wertpapieren sind, nicht des Marketings. Unternehmen müssen Genauigkeit, Governance und Nachweisbarkeit priorisieren.

Fazit: Der Weg zur Compliance führt über Überprüfung, Governance und Dokumentation

AI-Washing ist kein vorübergehender Trend – es ist das nächste große Durchsetzungsthema in der globalen Regulierung. Eine Kombination aus forensischer Prüfung und rechtlicher Beratung ist jetzt unerlässlich, um die Genauigkeit von AI- und Nachhaltigkeitsbehauptungen zu überprüfen und zu korrigieren.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...