Lorsque l’IA décide de vos soins : les questions de gouvernance que chaque partie prenante devrait poser
Une enquête a révélé qu’un outil d’IA utilisé par un assureur majeur a refusé plus de 300 000 demandes en deux mois. Les refus ont été générés en quelques minutes, plus rapidement que n’importe quel examinateur humain ne pourrait lire un seul dossier. La plupart des patients n’ont jamais fait appel. Ils ont supposé que l’algorithme savait quelque chose que leur médecin ne savait pas. Certains se sont simplement passés de soins. Cette hypothèse constitue la crise de gouvernance que personne n’a encore pleinement identifiée.
Un homme de 62 ans, ayant une condition cardiaque complexe documentée, s’est vu refuser la couverture pour une réhabilitation cardiaque spécialisée. Son cardiologue a jugé cela cliniquement essentiel. Le système automatisé de son assureur a signalé que les codes de traitement ne répondaient pas aux critères de nécessité médicale. Il n’a reçu aucune explication sur le fait qu’un médecin ait examiné son dossier ou si la décision avait été générée algorithmiquement en quelques secondes. Il a supposé que le système savait quelque chose que son cardiologue ne savait pas. Il n’a pas fait appel. Il faisait partie des plus de 80 % de patients qui ne le font jamais — et des moins de 0,2 % des refus qui, s’il avait fait appel, auraient presque certainement été annulés.
Questions centrales de gouvernance
La question centrale est trompeusement simple : lorsque un patient n’est pas d’accord avec une décision de santé influencée par l’IA, qui est responsable — et quels droits le patient a-t-il réellement ? Comme l’a documenté l’Agence pour la recherche et la qualité des soins de santé en 2024, les questions sans réponse au cœur de l’IA en santé sont exactement celles-ci : Que faire lorsque vous n’êtes pas d’accord avec un algorithme ? Qui assume la responsabilité d’accepter ou de refuser une recommandation de l’IA ? Nous y faisons déjà face.
ECRI a classé l’insuffisance de la gouvernance de l’IA comme la deuxième menace pour la sécurité des patients en 2025, notant que seulement 16 % des dirigeants d’hôpitaux en 2023 ont signalé une politique de gouvernance systémique pour l’utilisation de l’IA et l’accès aux données. Ce vide n’est pas théorique. C’est une réalité opérationnelle quotidienne dans laquelle les systèmes d’IA influencent les décisions cliniques et de couverture alors que les patients, les cliniciens et les régulateurs négocient encore qui est responsable de leur supervision.
Responsabilités des parties prenantes
Cinq parties prenantes se trouvent au centre de chaque décision de soins influencée par l’IA : assureur, fournisseur, régulateur, patient et la technologie elle-même. Aucune n’a accepté la pleine responsabilité. Toutes doivent commencer par la même question : quel est mon rôle lorsque l’algorithme se trompe ?
Les assureurs doivent demander : Notre modèle d’IA prend-il la décision finale, ou fournit-il des éléments à un examinateur humain qui exerce un jugement clinique indépendant avant toute communication de refus au patient ? À partir de 2026, les payeurs devront fournir une raison spécifique pour chaque refus assisté par l’IA et publier des données d’approbation agrégées. Ce n’est pas une charge de reporting — c’est un cadre de responsabilité. Les organisations qui ne se préparent pas déjà à cela sont en retard.
Les fournisseurs doivent demander : Lorsque le soutien à la décision clinique généré par l’IA contredit mon jugement, mon institution a-t-elle un protocole documenté pour enregistrer, escalader et résoudre ce désaccord ? La position politique de 2024 de l’American College of Physicians est sans ambiguïté : l’IA doit compléter la prise de décision du médecin, et non la remplacer. La question de gouvernance pour les fournisseurs est de savoir si leurs flux de travail reflètent structurellement ce principe — ou se contentent de l’affirmer dans des termes politiques.
Les patients doivent demander : Ai-je le droit de savoir quand un système d’IA a influencé une décision concernant mes soins, et ai-je un chemin clair pour faire appel ? La réponse varie selon l’État. L’endroit où vous vivez détermine les droits que vous détenez lorsque un algorithme affecte vos soins.
Les régulateurs doivent demander : La « révision humaine significative » est-elle définie avec suffisamment de spécificité pour que les organisations ne puissent pas s’en sortir en faisant simplement passer des décisions par un humain qui approuve rapidement une sortie d’IA ?
Étapes à suivre
Aucune partie prenante n’a encore la réponse complète. Cela ne doit pas être une excuse pour l’inaction — c’est le contexte pour des étapes urgentes et intérimaires.
Chaque organisation déployant l’IA dans des décisions cliniques ou de couverture devrait exiger une trace d’audit générée par des humains pour chaque résultat influencé par l’IA — non pas comme un exercice de conformité, mais comme la base probante lorsque un patient conteste une décision. Chaque refus devrait porter une explication en langage clair sur la participation d’un modèle d’IA et sur les droits d’appel du patient. Chaque comité de gouvernance supervisant l’IA en santé devrait inclure des fournisseurs, des patients avec leurs défenseurs, des assureurs et des régulateurs de santé ayant le pouvoir d’arrêter le déploiement lorsque les obligations de transparence ne sont pas respectées.
Le secteur de la santé est à un point d’inflexion qui se présente une fois par génération. L’IA peut réduire les délais de diagnostic, détecter les conditions plus tôt, diminuer le fardeau administratif qui pousse à l’épuisement des cliniciens et étendre des soins de qualité à des populations historiquement mal desservies par le système existant. Aucun de ce potentiel ne disparaît parce que la gouvernance est difficile. Elle s’accélère lorsque la gouvernance est bien faite — car les patients s’engagent plus pleinement avec un système auquel ils font confiance, les cliniciens adoptent des outils qu’ils peuvent expliquer et les régulateurs permettent un déploiement plus rapide lorsque l’infrastructure de responsabilité est déjà en place. Obtenir la bonne gouvernance n’est pas un obstacle à la promesse de l’IA en santé. C’est le chemin vers celle-ci.