Risiken von KI-Tools bei der Schadenregulierung: Lehren aus dem Fall Lokken

Künstliche Intelligenz (KI) und das Risiko von Treuwidrigkeiten bei der Bearbeitung von Versicherungsansprüchen: Lehren aus einem Fall

Künstliche Intelligenz (KI) wird zunehmend bei der Bearbeitung von Ansprüchen eingesetzt, insbesondere durch prädiktive Analysen, Automatisierung, Betrugserkennung und Kostenkalkulation. Während diese Werkzeuge Geschwindigkeit, Konsistenz und Genauigkeit bieten, erhöhen sie auch das Risiko von Rechtsstreitigkeiten—Kläger könnten sowohl die Ergebnisse als auch den KI-gesteuerten Prozess anfechten. Ein Fall aus dem Jahr 2025 veranschaulicht, wie Kläger geltend machen können, dass KI das individuelle Urteil ersetzt hat und wie Gerichte mit diesen Vorwürfen umgehen könnten.

Der Fall

In dem Fall suchten die Kläger, die unter Medicare Advantage-Plänen versichert waren, eine Deckung für post-akute Pflege, die ihnen verweigert wurde. Sie behaupteten, dass diese Ablehnungen schwerwiegende Schäden verursacht hätten, einschließlich verschlechterter Verletzungen und in einigen Fällen sogar Tod. Der zentrale Fakt war die Behauptung, dass ein KI-Werkzeug—„nH Predict“—effektiv das Urteil der Ärzte ersetzt hatte, indem es „starre Kriterien“ anwendete und Schätzungen basierend auf Vergleichen mit „ähnlichen“ Patienten generierte, was zu Ablehnungen führte, selbst wenn die behandelnden Ärzte zusätzliche Pflege empfahlen.

Wo KI-Risiken auftreten

Der Fall befasste sich nicht mit dem Kern der Vorwürfe der Treuwidrigkeit, die auf der Nutzung eines KI-Werkzeugs basierten. Dennoch zeigt er, wie Gerichte und Kläger mit KI in Entscheidungen zu Ansprüchen umgehen. Kläger könnten KI als Ersetzung individuellen Fachwissens darstellen. Ähnliche Vorwürfe könnten auch in anderen Arten von Ansprüchen auftreten, wenn KI-Werkzeuge verwendet werden, um den Umfang und die Preisgestaltung festzulegen, Deckungsprobleme zu kennzeichnen oder Empfehlungen für Kausalitätsabschlüsse zu geben.

Ein weiteres Risiko ist die Erklärbarkeit, die schnell zu einem Problem der Entdeckbarkeit wird. Wenn KI eine Entscheidung erheblich beeinflusst, sollten Anwälte mit Entdeckungsanforderungen rechnen, die sich auf die Modellkonfiguration, Schwellenwerte, Trainingsdatenquellen und interne Richtlinien beziehen. Eine schwache Governance kann Argumente verstärken, dass die Untersuchung unangemessen war, selbst wenn die Versicherung letztendlich im Recht war.

Die Qualität der Daten und Vorurteile sind ebenfalls Risiken. Wenn ein KI-Werkzeug auf historischen Daten trainiert wird, die in früheren Anpassungspraktiken eingebettet sind, oder auf ungeeigneten „Ähnlichkeits“-Vergleichen basiert, kann es systematische Schätzfehler einführen. Aus einer rechtlichen Perspektive können inkonsistente Muster zur Erzählung werden, auch wenn eine einzelne Entscheidung verteidigbar erscheint.

Was können Versicherer tun?

Die Verteidigungsstrategie bleibt vertraut: Die Akte sollte die gesammelten Fakten, die angewandte Policensprache und den Beitrag des KI-Werkzeugs dokumentieren. Die Schadensregulierer sollten ihr Denken und ihre Abhängigkeit oder Abweichung von KI-Empfehlungen dokumentieren, um Transparenz für neutrale Prüfer zu gewährleisten.

Für Fachleute im Bereich Schadensregulierung ist die wichtigste Erkenntnis, dass KI als Teil des Bearbeitungsprozesses bewertet wird und wie andere Entscheidungsinputs entdeckbar sein wird. Während sich die Fähigkeiten der KI entwickeln und rechtliche Standards ungleichmäßig über die Gerichtsbarkeiten hinweg evolvieren, werden die heutigen KI-gesteuerten Arbeitsabläufe in Rechtsstreitigkeiten durch die vertraute Linse der angemessenen Untersuchung und der Entscheidungen auf Basis der Policen sowie des guten Glaubens geprüft.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...