Künstliche Intelligenz (KI) und das Risiko von Treuwidrigkeiten bei der Bearbeitung von Versicherungsansprüchen: Lehren aus einem Fall
Künstliche Intelligenz (KI) wird zunehmend bei der Bearbeitung von Ansprüchen eingesetzt, insbesondere durch prädiktive Analysen, Automatisierung, Betrugserkennung und Kostenkalkulation. Während diese Werkzeuge Geschwindigkeit, Konsistenz und Genauigkeit bieten, erhöhen sie auch das Risiko von Rechtsstreitigkeiten—Kläger könnten sowohl die Ergebnisse als auch den KI-gesteuerten Prozess anfechten. Ein Fall aus dem Jahr 2025 veranschaulicht, wie Kläger geltend machen können, dass KI das individuelle Urteil ersetzt hat und wie Gerichte mit diesen Vorwürfen umgehen könnten.
Der Fall
In dem Fall suchten die Kläger, die unter Medicare Advantage-Plänen versichert waren, eine Deckung für post-akute Pflege, die ihnen verweigert wurde. Sie behaupteten, dass diese Ablehnungen schwerwiegende Schäden verursacht hätten, einschließlich verschlechterter Verletzungen und in einigen Fällen sogar Tod. Der zentrale Fakt war die Behauptung, dass ein KI-Werkzeug—„nH Predict“—effektiv das Urteil der Ärzte ersetzt hatte, indem es „starre Kriterien“ anwendete und Schätzungen basierend auf Vergleichen mit „ähnlichen“ Patienten generierte, was zu Ablehnungen führte, selbst wenn die behandelnden Ärzte zusätzliche Pflege empfahlen.
Wo KI-Risiken auftreten
Der Fall befasste sich nicht mit dem Kern der Vorwürfe der Treuwidrigkeit, die auf der Nutzung eines KI-Werkzeugs basierten. Dennoch zeigt er, wie Gerichte und Kläger mit KI in Entscheidungen zu Ansprüchen umgehen. Kläger könnten KI als Ersetzung individuellen Fachwissens darstellen. Ähnliche Vorwürfe könnten auch in anderen Arten von Ansprüchen auftreten, wenn KI-Werkzeuge verwendet werden, um den Umfang und die Preisgestaltung festzulegen, Deckungsprobleme zu kennzeichnen oder Empfehlungen für Kausalitätsabschlüsse zu geben.
Ein weiteres Risiko ist die Erklärbarkeit, die schnell zu einem Problem der Entdeckbarkeit wird. Wenn KI eine Entscheidung erheblich beeinflusst, sollten Anwälte mit Entdeckungsanforderungen rechnen, die sich auf die Modellkonfiguration, Schwellenwerte, Trainingsdatenquellen und interne Richtlinien beziehen. Eine schwache Governance kann Argumente verstärken, dass die Untersuchung unangemessen war, selbst wenn die Versicherung letztendlich im Recht war.
Die Qualität der Daten und Vorurteile sind ebenfalls Risiken. Wenn ein KI-Werkzeug auf historischen Daten trainiert wird, die in früheren Anpassungspraktiken eingebettet sind, oder auf ungeeigneten „Ähnlichkeits“-Vergleichen basiert, kann es systematische Schätzfehler einführen. Aus einer rechtlichen Perspektive können inkonsistente Muster zur Erzählung werden, auch wenn eine einzelne Entscheidung verteidigbar erscheint.
Was können Versicherer tun?
Die Verteidigungsstrategie bleibt vertraut: Die Akte sollte die gesammelten Fakten, die angewandte Policensprache und den Beitrag des KI-Werkzeugs dokumentieren. Die Schadensregulierer sollten ihr Denken und ihre Abhängigkeit oder Abweichung von KI-Empfehlungen dokumentieren, um Transparenz für neutrale Prüfer zu gewährleisten.
Für Fachleute im Bereich Schadensregulierung ist die wichtigste Erkenntnis, dass KI als Teil des Bearbeitungsprozesses bewertet wird und wie andere Entscheidungsinputs entdeckbar sein wird. Während sich die Fähigkeiten der KI entwickeln und rechtliche Standards ungleichmäßig über die Gerichtsbarkeiten hinweg evolvieren, werden die heutigen KI-gesteuerten Arbeitsabläufe in Rechtsstreitigkeiten durch die vertraute Linse der angemessenen Untersuchung und der Entscheidungen auf Basis der Policen sowie des guten Glaubens geprüft.