Herramientas de IA y Riesgo de Mala Fe en el Manejo de Reclamos de Seguros: Lecciones de Lokken
La inteligencia artificial (IA) se utiliza cada vez más en el manejo de reclamos a través de la analítica predictiva, la automatización, la detección de fraudes y la estimación de costos. Si bien estas herramientas ofrecen velocidad, consistencia y precisión, también plantean riesgos de litigio: los demandantes pueden impugnar tanto los resultados como el proceso impulsado por la IA.
Un caso de 2025, Estate of Lokken v. UnitedHealth Group, Inc., ilustra cómo los demandantes pueden alegar que la IA reemplazó el juicio individualizado y cómo los tribunales pueden tratar esas alegaciones. La principal conclusión es que reemplazar el juicio humano con IA puede aumentar la exposición a alegaciones de mala fe y a descubrimientos invasivos en los procesos de manejo de reclamos de los aseguradores.
Lokken v. UnitedHealth Group, Inc.
En Lokken, los demandantes estaban asegurados bajo planes de Medicare Advantage vendidos o administrados por entidades de UnitedHealth. Los asegurados buscaron cobertura para cuidados post-agudos, fueron denegados y alegaron que las denegaciones causaron daños graves, incluyendo el empeoramiento de lesiones y, en algunos casos, la muerte. El centro factual fue la alegación de que una herramienta de IA—“nH Predict”—efectivamente sustituyó el juicio de los médicos al aplicar “criterios rígidos”, generando estimaciones basadas en comparaciones con pacientes “similares” y llevando a denegaciones incluso cuando los proveedores de tratamiento recomendaban atención adicional. Los demandantes también alegaron que la herramienta era inexacta y señalaron altas tasas de reversión en apelaciones, además de que el proceso de apelación se frustró a través de cartas de denegación repetidas o pagos tardíos que supuestamente evitaban el agotamiento de los recursos administrativos.
El tribunal de Lokken desestimó la mayoría de las reclamaciones basadas en leyes estatales y estatutos aplicando la preeminencia de la Ley de Medicare. Sin embargo, sobrevivieron dos reclamaciones: incumplimiento de contrato e incumplimiento de la cláusula implícita de buena fe y trato justo. El tribunal permitió que esas reclamaciones continuaran porque podían resolverse sin imponer estándares de ley estatal que regulan el marco de beneficios de Medicare.
Dónde Se Manifiestan los Riesgos de la IA
Lokken no abordó el fondo de la mala fe de los demandantes basada en el uso de una herramienta de IA, y su contexto de Medicare incluye doctrinas —como la preeminencia— que no se aplican fácilmente en el contexto de seguros de propiedad y responsabilidad. Pero muestra cómo los tribunales y los litigantes están abordando la IA en decisiones relacionadas con reclamos: aplicando conceptos legales tradicionales a herramientas modernas y enfocándose en si la automatización reemplazó el juicio individualizado.
En Lokken, los demandantes enmarcaron la IA como un reemplazo del juicio profesional individualizado. Alegaciones similares de dependencia excesiva o de mero visto bueno pueden surgir en otros tipos de reclamos cuando se utilizan herramientas de IA para establecer el alcance y la fijación de precios, señalar problemas de cobertura, recomendar conclusiones de causalidad o impulsar derivaciones a unidades de investigación especial. Cuanto más se asemeje el papel de un ajustador a confirmar una recomendación de IA, más podrá argumentar un demandante que la aseguradora no realizó una evaluación razonable y específica del reclamo.
Otro riesgo es la explicabilidad, que rápidamente se convierte en un problema de descubrimiento. Si la IA influyó materialmente en una decisión de reclamo, se debe esperar demandas de descubrimiento enfocadas en la configuración del modelo, los umbrales, las fuentes de datos de entrenamiento, las comunicaciones con proveedores, las tasas de anulación y las orientaciones internas sobre cómo el personal debe utilizar la salida. Una gobernanza débil puede alimentar argumentos de que la investigación fue irrazonable, incluso si la aseguradora finalmente prevalece en la cobertura.
La calidad de los datos y el sesgo son también riesgos. Si una herramienta de IA se entrena con datos históricos incrustados con prácticas de ajuste pasadas o depende de comparaciones de “similitud” inadecuadas, puede introducir errores sistemáticos en las estimaciones. Desde una perspectiva de litigio, las inconsistencias basadas en patrones pueden convertirse en la narrativa, incluso cuando cualquier decisión de reclamo individual parece defensible.
Finalmente, Lokken destaca los riesgos que surgen de incentivos operativos y fallas de control. Los métricas de productividad y los estándares de rendimiento del flujo de trabajo no son inherentemente problemáticos, pero si penalizan funcionalmente a los ajustadores por desviarse de las salidas de IA o por tomarse tiempo para investigar excepciones, pueden ser reinterpretados en litigios como presión institucional que favorece la rapidez y la contención de costos sobre la precisión.
Las alegaciones de mala fe contra aseguradoras de propiedad y responsabilidad pueden estar impulsadas por investigaciones inadecuadas, ignorando información relevante, retrasos irrazonables o manejo de reclamos orientado a resultados. Las herramientas de IA pueden aumentar estos riesgos al proporcionar mecanismos claros de toma de decisiones que los demandantes pueden impugnar. El caso Lokken destaca que los demandantes pueden alegar el uso de IA como evidencia de irrazonabilidad sistémica, y las reclamaciones de mala fe pueden sobrevivir basándose en alegaciones de que los procesos de manejo de reclamos están dominados por salidas automatizadas a pesar de las promesas de revisión experta o profesional individualizada.
¿Qué Debe Hacer una Aseguradora?
La postura de defensa es familiar: el archivo debe demostrar los hechos recopilados, el lenguaje de la póliza aplicado, lo que contribuyó la herramienta de IA, si la salida fue probada contra evidencia específica del reclamo y por qué la decisión final es razonable. Los ajustadores deben documentar su razonamiento y cualquier dependencia o desviación de las recomendaciones de IA para asegurar la transparencia ante revisores neutrales.
Para los profesionales de reclamos, la conclusión más duradera es que la IA será evaluada como parte del proceso de manejo de reclamos y será objeto de descubrimiento como otros insumos de decisión. A medida que las capacidades de IA se desarrollen y los estándares legales evolucionen desigualmente en diferentes jurisdicciones, los flujos de trabajo impulsados por IA de hoy serán examinados en litigios a través de la familiar lente de investigación razonable, toma de decisiones basada en políticas y conducta de buena fe.