AI-Wertpapierklagen 2025: Ein neues Kapitel

2025’s Defining AI Securities Litigation

Im Jahr 2025 erreichte die Wertpapierklage über Ansprüche im Bereich künstliche Intelligenz ein neues Maß an Intensität. Was zuvor ein stetiger Strom explorativer Fälle war, entwickelte sich 2024 und 2025 zu einer anhaltenden Welle, da Klägeranwälte zunehmend den Fokus auf AI-bezogene Offenlegungen legten.

Die Zahlen bestätigen dies. AI-bezogene Wertpapierklagen verdoppelten sich von sieben im Jahr 2023 auf 15 im Jahr 2024, mit weiteren 14 im ersten Quartal 2025. Dieser Anstieg spiegelt einen vertrauten Zyklus wider: Märkte belohnen AI-Innovation, was starke Anreize für Unternehmen schafft, ihre AI-Fähigkeiten zu kommunizieren, während Klägeranwälte genau auf mögliche Lücken zwischen Offenlegungen und Leistung achten, wenn die Aktienkurse fallen.

Das Umfeld: AI-Wertpapierklagen kommen in die Gänge

AI hat sich in die Bereiche Finanzen, Gesundheitswesen, Logistik, Bildung, Einzelhandel und fast jeden anderen Sektor integriert. Für öffentliche Unternehmen ist die AI-Strategie nun ein Unterscheidungsmerkmal und oft ein Treiber für die Bewertung. Tatsächlich hat die aktuelle Verwaltung kürzlich die Bedeutung der Unternehmensführung im Bereich AI durch eine Exekutivverordnung zur nationalen Politik für AI am 11. Dezember 2025 verstärkt.

Der wahrgenommene Wert und die Bedeutung von AI schaffen Anreize, AI-Fähigkeiten deutlich hervorzuheben, was wiederum das Augenmerk der Klägeranwälte auf sich zieht.

Die meisten AI-bezogenen Wertpapierfälle fallen in eines von drei Mustern:

  1. AI-Washing, das behauptet, dass Unternehmen ihre AI-Fähigkeiten übertrieben haben, die sie tatsächlich nicht besitzen;
  2. Fähigkeitsherausforderungsfälle, die behaupten, dass AI-gestützte Produkte nicht wie beworben funktionieren;
  3. Konventionelle Betrugstheorien, traditionelle Wertpapieransprüche, die auf einen AI-Kontext angewendet werden.

Und Klage ist nicht das einzige Risiko. Im Mai 2025 machte ein Enforcement-Anwalt der US-amerikanischen Wertpapier- und Börsenkommission (SEC) deutlich, dass eines der neuen Vollstreckungsprioritäten der SEC darin besteht, den Missbrauch von AI zu bekämpfen.

Die entscheidenden Fälle von 2025: Entstehende gerichtliche Rahmenbedingungen

Drei Entscheidungen aus dem Jahr 2025 bieten einen Ausblick darauf, wie Gerichte AI-bezogene Offenlegungen in den kommenden Jahren bewerten werden.

Die GM/Cruise-Entscheidung: Wenn technische Fachsprache gegen Sie arbeitet

Am 28. März entschied das US-Bezirksgericht für den östlichen Bezirk von Michigan in einem Fall, der sich um die autonome Fahrzeugtechnologie von GMs selbstfahrender Autoeinheit Cruise drehte. Die Klage warf GM und Cruise vor, die Einsatzbereitschaft ihrer Fahrzeuge für einen gewinnbringenden, fahrerlosen Taxidienst übertrieben zu haben.

Das Gericht behandelte die Offenlegungen auf zwei sehr unterschiedliche Weisen: Einfache Aussagen wurden schnell als nicht klagbar abgewiesen, während hoch technische Aussagen auf Falschheitsgründen weiterverfolgt wurden.

Die GitLab-Entscheidung: Die Kraft von „Wir glauben“

Am 14. August zeigte das US-Bezirksgericht für den nördlichen Bezirk Kaliforniens, wie subjektive Qualifizierer AI-bezogene Aussagen entschärfen können. GitLab sah sich Klagen gegenüber, dass es die Fähigkeiten seiner AI-Plattform übertrieben habe. Das Gericht wies die Klage ab, da die angefochtenen Aussagen als vorausschauend oder bloße Übertreibung eingestuft wurden.

Die Tesla-Entscheidung: AI-Komplexität als Schutz gegen Scienter

Am 2. Dezember entschied das Berufungsgericht für den neunten Bezirk über einen Fall, der behauptete, dass Tesla und Elon Musk die Fähigkeiten der autonomen Fahrzeugtechnologie übertrieben haben. Das Gericht wies die Klage ab und stellte fest, dass Tesla den Investoren klargemacht hatte, dass die autonome Fahrzeugtechnologie „hochkomplex“ und „state-of-the-art“ sei.

Blick in die Zukunft: Was 2026 zu beobachten ist

Erwartete Entwicklungen im kommenden Jahr umfassen eine verstärkte regulatorische Überwachung. Die Cyber- und Emerging Technologies Unit der SEC wird ihre technische Expertise ausbauen und mehr Ermittlungen zu AI-Washing und Fähigkeitsübertreibungen durchführen.

Die Klageverfahren könnten weiterhin Schwierigkeiten mit technischer AI-Terminologie haben, bis die Gerichte ein besseres Verständnis für AI-Konzepte entwickeln. Unternehmen müssen den Geschäftszwang zur Kommunikation ihrer AI-Fähigkeiten mit den rechtlichen Risiken, die mit solchen Offenlegungen verbunden sind, in Einklang bringen.

Die Entscheidungen von 2025 skizzieren die frühen Konturen des Rechts, und 2026 wird sie ausfüllen. AI verändert nicht nur Branchen, sondern auch die Wertpapierklage. Unternehmen, die erfolgreich sind, werden diejenigen sein, die ihre AI-Fähigkeiten präzise kommunizieren, angemessenen Kontext und Qualifikationen bereitstellen und erkennen, dass Transparenz nicht nur eine ethische Verpflichtung, sondern auch ein gutes Risikomanagement ist.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...