Les outils d’IA et le risque de mauvaise foi dans le traitement des sinistres : Leçons tirées de Lokken
De plus en plus, l’intelligence artificielle (IA) est utilisée dans le traitement des sinistres grâce à l’analyse prédictive, l’automatisation, la détection de fraudes et l’estimation des coûts. Bien que ces outils offrent rapidité, cohérence et précision, ils soulèvent également des risques de litige : les plaignants peuvent contester à la fois les résultats et le processus piloté par l’IA. Un cas de 2025, Estate of Lokken v. UnitedHealth Group, Inc., illustre comment les plaignants peuvent soutenir que l’IA a remplacé le jugement individuel et comment les tribunaux peuvent traiter ces allégations. La principale leçon à retenir : remplacer le jugement humain par l’IA peut augmenter l’exposition aux allégations de mauvaise foi et à une découverte invasive des processus de traitement des sinistres des assureurs.
Contexte du cas Lokken
Dans Lokken, les plaignants étaient assurés par des régimes Medicare Advantage vendus ou administrés par des entités d’une grande compagnie d’assurance. Les assurés ont demandé une couverture pour des soins post-aigus, qui leur a été refusée, et ont allégué que ces refus avaient causé des préjudices graves, y compris l’aggravation de blessures et, dans certains cas, la mort. Le point central des faits était l’allégation qu’un outil d’IA — « nH Predict » — avait effectivement substitué le jugement des médecins en appliquant des « critères rigides », en générant des estimations basées sur des comparaisons avec des patients « similaires », et en entraînant des refus même lorsque les prestataires de soins recommandaient des soins supplémentaires. Les plaignants ont également allégué que l’outil était inexact et ont souligné de hauts taux de réversibilité en appel, ainsi que le fait que le processus d’appel était frustré par des lettres de refus répétées ou des paiements tardifs, qui évitaient d’épuiser les recours administratifs.
Le tribunal dans Lokken a rejeté la plupart des revendications basées sur le droit étatique et les lois statutaires en appliquant la préemption de la loi Medicare. Cependant, deux revendications ont survécu : violation de contrat et violation de la convention implicite de bonne foi et de traitement équitable. Le tribunal a permis à ces revendications de progresser car elles pouvaient être résolues sans imposer des normes de droit étatique qui régulent le cadre des prestations de Medicare.
Où se manifestent les risques de l’IA
Lokken n’a pas abordé le fond des allégations de mauvaise foi des plaignants fondées sur l’utilisation d’un outil d’IA, et son contexte Medicare inclut des doctrines — comme la préemption — qui ne se traduisent pas facilement dans le contexte des assurances de biens et de responsabilité. Mais cela montre comment les tribunaux et les plaideurs abordent l’IA dans les décisions liées aux sinistres : en appliquant des concepts juridiques traditionnels à des outils modernes et en se concentrant sur la question de savoir si l’automatisation a remplacé le jugement individuel.
Dans Lokken, les plaignants ont présenté l’IA comme remplaçant le jugement professionnel individualisé. Des allégations similaires de surdépendance ou de validation automatique peuvent surgir dans d’autres types de sinistres lorsque des outils d’IA sont utilisés pour définir la portée et le prix, signaler des problèmes de couverture, recommander des conclusions de causalité ou diriger des références à l’unité d’enquête spéciale. Plus le rôle d’un ajusteur ressemble à celui de confirmer une recommandation d’IA, plus un plaignant peut faire valoir que l’assureur n’a pas réalisé une évaluation raisonnable et spécifique au sinistre.
Un autre risque est l’explicabilité, qui devient rapidement un problème de découvrabilité. Si l’IA a influencé de manière significative une décision de sinistre, les avocats doivent s’attendre à des demandes de découverte visant la configuration du modèle, les seuils, les sources de données d’entraînement, les communications avec les fournisseurs, les taux de contournement et les directives internes sur la manière dont le personnel doit utiliser la sortie. Une gouvernance faible peut alimenter les arguments selon lesquels l’enquête était déraisonnable — même si l’assureur finit par triompher sur la couverture.
La qualité des données et les biais sont également des risques. Si un outil d’IA est formé sur des données historiques intégrant des pratiques d’ajustement passées ou repose sur des comparaisons « similaires » inappropriées, il peut introduire des erreurs systématiques d’estimation. D’un point de vue de litige, des incohérences basées sur des modèles peuvent devenir le récit, même lorsque toute décision de sinistre particulière semble défendable.
Enfin, Lokken met en lumière les risques liés aux incitations opérationnelles et aux échecs de contrôle. Les métriques de productivité et les normes de performance des flux de travail ne sont pas inherently problématiques, mais si elles pénalisent fonctionnellement les ajusteurs pour avoir dévié des résultats de l’IA ou pris du temps pour enquêter sur des exceptions, elles peuvent être requalifiées en litige comme une pression institutionnelle favorisant la rapidité et la réduction des coûts au détriment de l’exactitude.
Conclusion
Les allégations de mauvaise foi contre les assureurs de biens et de responsabilité peuvent être motivées par une enquête inadéquate, l’ignorance d’informations pertinentes, des retards déraisonnables ou un traitement des sinistres orienté vers le résultat. Les outils d’IA peuvent accentuer ces risques en fournissant des mécanismes de prise de décision clairs pour les plaignants à contester. L’affaire Lokken souligne que les plaignants peuvent plaider l’utilisation de l’IA comme preuve d’un caractère systémique déraisonnable et que les allégations de mauvaise foi peuvent survivre sur la base d’allégations selon lesquelles les processus de traitement des sinistres sont dominés par des résultats automatisés, malgré les promesses d’examen expert ou professionnel individualisé.
La posture de défense est familière : le dossier doit démontrer les faits rassemblés, le langage de la police appliqué, ce que l’outil d’IA a contribué, si la sortie a été testée par rapport à des preuves spécifiques au sinistre, et pourquoi la décision finale est raisonnable. Les ajusteurs doivent documenter leur raisonnement et toute dépendance ou déviation par rapport aux recommandations de l’IA pour garantir la transparence auprès des examinateurs neutres.
Pour les professionnels des sinistres, la leçon la plus durable est que l’IA sera évaluée dans le cadre du processus de traitement des sinistres et sera découvrable comme d’autres éléments de décision. À mesure que les capacités de l’IA se développent et que les normes juridiques évoluent de manière inégale entre les juridictions, les flux de travail pilotés par l’IA d’aujourd’hui seront examinés dans le cadre familier de l’enquête raisonnable, de la prise de décision basée sur la police et de la conduite de bonne foi.