Aumento do Risco de Má-Fé na Gestão de Sinistros com Ferramentas de IA

Ferramentas de IA e Risco de Má-fé no Tratamento de Reclamações de Seguro: Lições de Lokken

A inteligência artificial (IA) está sendo cada vez mais utilizada no tratamento de reclamações por meio de análises preditivas, automação, detecção de fraudes e estimativas de custos. Embora essas ferramentas proporcionem velocidade, consistência e precisão, também levantam riscos de litígios—os demandantes podem contestar tanto os resultados quanto o processo orientado por IA. Um caso de 2025, Estate of Lokken v. UnitedHealth Group, Inc., ilustra como os demandantes podem alegar que a IA substituiu o julgamento individualizado e como os tribunais podem tratar essas alegações. A principal lição: substituir o julgamento humano por IA pode aumentar a exposição a alegações de má-fé e a descobertas invasivas nos processos de tratamento de reclamações das seguradoras.

O Caso Lokken

No caso Lokken, os demandantes estavam segurados sob planos Medicare Advantage vendidos ou administrados por entidades da UnitedHealth. Os segurados buscaram cobertura para cuidados pós-agudos, foram negados e alegaram que as negativas causaram sérios danos, incluindo agravamento de lesões e, em alguns casos, morte. O centro factual foi a alegação de que uma ferramenta de IA—“nH Predict”—substituiu efetivamente o julgamento dos médicos ao aplicar “critérios rígidos”, gerando estimativas com base em comparações com pacientes “semelhantes” e levando a negativas mesmo quando os provedores de tratamento recomendavam cuidados adicionais. Os demandantes também alegaram que a ferramenta era imprecisa e apontaram altas taxas de reversão em apelações, além de que o processo de apelação foi frustrado por cartas de negativa repetidas ou pagamentos atrasados que evitavam a exaustão dos recursos administrativos.

O tribunal de Lokken rejeitou a maioria das alegações com base em leis estaduais e estatutárias ao aplicar a preempção da Lei Medicare. Contudo, duas alegações sobreviveram: violação de contrato e violação da obrigação implícita de boa-fé e trato justo. O tribunal permitiu que essas alegações prosseguissem porque poderiam ser resolvidas sem impor padrões de leis estaduais que regulam o quadro de benefícios do Medicare.

Onde o Risco de IA Aparece

O caso Lokken não abordou a substância da má-fé dos demandantes baseada no uso de uma ferramenta de IA, e seu contexto no Medicare inclui doutrinas — como a preempção — que não se aplicam facilmente nos contextos de seguro de propriedade e responsabilidade. Mas mostra como tribunais e litigantes estão abordando a IA em decisões relacionadas a reclamações: aplicando conceitos legais tradicionais a ferramentas modernas e focando se a automação substituiu o julgamento individualizado.

No caso Lokken, os demandantes enquadraram a IA como substituta do julgamento profissional individualizado. Alegações semelhantes de dependência excessiva ou de “carimbagem” podem surgir em outros tipos de reclamações quando ferramentas de IA são utilizadas para definir escopo e preços, sinalizar questões de cobertura, recomendar conclusões de causalidade ou impulsionar referências para a unidade de investigação especial (SIU). Quanto mais o papel de um ajustador se assemelhar a confirmar uma recomendação de IA, mais um demandante pode argumentar que a seguradora falhou em realizar uma avaliação razoável e específica da reclamação.

Outro risco é a explicabilidade, que rapidamente se torna um problema de descobribilidade. Se a IA influenciou materialmente uma decisão de reclamação, os advogados devem esperar demandas de descoberta voltadas para configuração de modelos, limites, fontes de dados de treinamento, comunicações de fornecedores, taxas de substituição e diretrizes internas sobre como a equipe deve usar a saída. Uma governança fraca pode alimentar argumentos de que a investigação foi irrazoável — mesmo que a seguradora eventualmente prevaleça em cobertura.

A qualidade dos dados e o viés também são riscos. Se uma ferramenta de IA for treinada com dados históricos que contêm práticas de ajuste passadas ou depende de comparações de “semelhança” inadequadas, pode introduzir erros sistemáticos nas estimativas. Do ponto de vista do litígio, inconsistências baseadas em padrões podem se tornar a narrativa, mesmo quando qualquer decisão de reclamação individual parece defensável.

Finalmente, o caso Lokken destaca os riscos decorrentes de incentivos operacionais e falhas de controle. Métricas de produtividade e padrões de desempenho de fluxo de trabalho não são inerentemente problemáticos, mas se funcionarem para penalizar os ajustadores por se desviarem das saídas de IA ou por demorarem a investigar exceções, podem ser reinterpretados em litígios como pressão institucional favorecendo velocidade e contenção de custos em detrimento da precisão.

Alegações de má-fé contra seguradoras de propriedade e responsabilidade podem ser impulsionadas por investigações inadequadas, ignorando informações relevantes, atrasos irrazoáveis ou tratamento de reclamações orientado por resultados. Ferramentas de IA podem aumentar esses riscos ao fornecer mecanismos claros de tomada de decisão para os demandantes contestarem. O caso Lokken destaca que os demandantes podem alegar o uso de IA como evidência de irracionalidade sistêmica e alegações de má-fé nas reclamações podem sobreviver com base em alegações de que os processos de tratamento de reclamações são dominados por saídas automatizadas, apesar das promessas de revisão individualizada por especialistas ou profissionais.

O Que Deve Fazer uma Seguradora?

A postura de defesa é familiar: o arquivo deve demonstrar os fatos reunidos, a linguagem da apólice aplicada, o que a ferramenta de IA contribuiu, se a saída foi testada contra evidências específicas da reclamação e por que a decisão final é razoável. Os ajustadores devem documentar seu raciocínio e qualquer dependência ou desvio das recomendações da IA para garantir transparência para revisores neutros.

Para os profissionais de reclamações, a lição mais duradoura é que a IA será avaliada como parte do processo de tratamento de reclamações e será descobrível como outros insumos de decisão. À medida que as capacidades de IA se desenvolvem e os padrões legais evoluem de maneira desigual em várias jurisdições, os fluxos de trabalho orientados por IA de hoje serão examinados em litígios através da lente familiar da investigação razoável, da tomada de decisões baseadas em políticas e da conduta de boa-fé.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...