Gestion de la gouvernance de l’IA dans le secteur de la santé : Ce que les conseils doivent savoir
L’intelligence artificielle (IA) a rapidement évolué des programmes pilotes vers des flux de travail cliniques et administratifs essentiels dans les hôpitaux, redéfinissant la manière dont les soins sont dispensés, documentés et gérés. Le rythme d’adoption dépasse celui de la supervision, et les régulateurs fédéraux, les législatures des États et les agences d’application de la loi réagissent tous en même temps. L’IA progresse rapidement. Pour les conseils des systèmes de santé, suivre ces développements nécessite plus qu’une simple prise de conscience. La gouvernance et la supervision doivent évoluer parallèlement à la technologie elle-même. La question critique est de savoir si votre conseil gouverne activement l’IA ou gère simplement les conséquences après coup.
Le paysage réglementaire : Ce que les dirigeants des systèmes de santé doivent savoir
Les conseils des systèmes de santé doivent être conscients de l’activité significative et croissante des agences fédérales, des législatures des États et des organismes d’application, tous agissant sur des pistes parallèles et relevant collectivement le niveau de gouvernance de l’IA dans le secteur de la santé.
Au niveau fédéral, la Maison Blanche a ordonné aux agences d’accélérer l’adoption de l’IA tout en établissant des garde-fous de gouvernance. Le département de la Santé et des Services sociaux des États-Unis aligne ses divisions opérationnelles sur des normes communes tout en créant des canaux pour que les fournisseurs participent à la mise en œuvre. Les Centres de Medicare et Medicaid (CMS) ont déjà intégré l’IA dans l’autorisation préalable, l’intégrité des programmes, les modèles de paiement et l’analyse, tandis que le Bureau des droits civils (OCR) a clairement indiqué que les systèmes automatisés ne diminuent pas les obligations en matière de confidentialité ou de droits civils.
Les États avancent avec une égale urgence pour faire progresser des lois sur l’IA à la fois complètes et spécifiques au secteur, y compris des lois qui restreignent ou conditionnent la prise de décision automatisée dans la gestion de l’utilisation. Ces mesures, dans certains cas, vont plus loin que les exigences fédérales existantes et, dans d’autres, peuvent entrer en conflit avec elles, nécessitant une analyse minutieuse de préemption et une mise en œuvre coordonnée.
Les devoirs fiduciaires à l’ère de l’IA
L’IA ne crée pas de nouveaux devoirs fiduciaires pour les membres des conseils des systèmes de santé. Cependant, elle élève les enjeux quant à la manière dont les devoirs existants sont remplis.
Devoir de diligence : Rester informé, poser des questions difficiles
Les membres des conseils doivent agir avec le soin et la diligence qu’une personne raisonnablement prudente utiliserait pour prendre des décisions significatives. Dans le contexte de l’IA, cela signifie que les conseils ne peuvent pas traiter l’IA comme une simple préoccupation de gestion ou de technologie. Lorsque qu’une organisation déploie des outils d’IA qui affectent les soins aux patients, la facturation ou les opérations, les membres du conseil doivent comprendre les risques matériels impliqués et poser des questions éclairées sur la manière dont ces risques sont gérés. Cela ne nécessite pas que les membres du conseil deviennent des experts en IA ; cela nécessite d’insister sur des rapports clairs et significatifs et de faire un suivi lorsque les réponses sont incomplètes.
Devoir de loyauté : Surveiller les conflits
Le recours à l’IA devient un investissement organisationnel significatif et le paysage des fournisseurs est complexe et en évolution. Les administrateurs ayant des liens financiers avec des fournisseurs d’IA ou dont les entités affiliées risquent de bénéficier doivent divulguer et gérer les conflits d’intérêts. À mesure que l’IA devient centrale dans les opérations, les conseils doivent s’assurer que les politiques de conflit d’intérêts sont à jour et appliquées de manière cohérente.
Devoir d’obéissance : Aligner l’IA avec votre mission
Pour les systèmes de santé à but non lucratif, le devoir d’obéissance exige de veiller à ce que l’organisation reste fidèle à sa mission caritative. Les déploiements d’IA qui introduisent des impacts disparates sur des populations vulnérables, compromettent la confidentialité des patients ou désavantagent systématiquement certains groupes pourraient compromettre les engagements de mission, le statut d’exonération fiscale et la conformité aux lois fédérales sur les droits civils.
Questions que chaque conseil de système de santé devrait poser aujourd’hui
Responsabilité : Qui est responsable des décisions relatives à l’IA dans l’organisation ?
L’adoption de l’IA dépasse le développement de cadres de gouvernance dans le secteur de la santé, créant un défi de supervision en évolution. Les conseils doivent s’assurer que la direction a attribué une propriété claire sur l’ensemble du cycle de vie de l’IA, y compris l’autorisation, la surveillance des performances et l’autorité de désactivation.
Transparence : Quels outils d’IA sont utilisés et où ?
Les fonctions d’IA sont intégrées aux dossiers de santé électroniques, aux systèmes de facturation et aux applications des fournisseurs, souvent de manière invisible. Les conseils doivent exiger que la direction maintienne un inventaire à jour de l’IA, identifie les systèmes à haut risque et suive les intégrations d’IA des fournisseurs.
Contrôle : Des garde-fous sont-ils en place avant que de nouveaux outils d’IA ne soient opérationnels ?
Introduire un nouvel outil d’IA dans un environnement clinique ou opérationnel comporte des implications légales, de sécurité et de conformité qui nécessitent un examen structuré avant déploiement. Cet examen n’est plus facultatif.
Surveillance : Obtenons-nous les bonnes informations au bon moment ?
La supervision de l’IA par les conseils nécessite plus que des mises à jour périodiques ; elle exige un système de suivi documenté qui fait remonter les risques significatifs avant qu’ils ne deviennent de sérieux problèmes. Les conseils des systèmes de santé devraient exiger des rapports réguliers et structurés sur la performance des outils d’IA, les incidents et les actions correctives.
Conclusion
La prochaine ère de l’IA dans le secteur de la santé récompensera les organisations qui associent innovation à une gouvernance disciplinée. Les conseils des systèmes de santé qui insistent sur des rapports clairs, des contrôles testés et une amélioration continue positionneront leurs institutions pour tirer parti des avantages de l’IA tout en protégeant la sécurité des patients, la confidentialité, la conformité aux droits civils et l’intégrité d’entreprise.