Gouvernance et enjeux réglementaires des outils d’IA dans le secteur de la santé
Les systèmes de santé et les entreprises émergentes doivent naviguer dans des eaux de gouvernance et de réglementation complexes alors qu’ils mettent en œuvre de nouveaux outils basés sur l’intelligence artificielle (IA). Un récent webinaire organisé par une société de conseil a réuni des dirigeants de startups créées pour aider les systèmes de santé à gérer la gouvernance de l’IA.
État actuel de la gouvernance de l’IA
Les experts ont noté que de nombreux systèmes de santé disposent de l’expertise nécessaire pour surveiller les modèles d’apprentissage automatique, mais manquent encore d’infrastructure et de capacités pour le faire à grande échelle. Randi Seigel, partenaire chez Manatt, a introduit le sujet en fournissant un contexte sur l’état actuel de la gouvernance, y compris les récents conseils de la Joint Commission et de CHAI.
Législation IA et modèles de gouvernance
Seigel a discuté des tentatives naissantes mais bloquées de législation sur l’IA au Congrès, ainsi que des modèles développés par des associations. Par exemple, la National Association of Insurance Commissioners a établi un bulletin modèle concernant l’utilisation de l’IA par les payeurs, adopté par de nombreux États. Elle a également publié un rapport sur l’engagement des différents payeurs avec l’IA et la manière dont ils ont établi leur processus de gouvernance.
Recommandations de la Joint Commission
La Joint Commission et la Coalition for Health AI ont publié des recommandations sur les meilleures pratiques pour l’adoption de l’IA dans le secteur de la santé. Ces recommandations portent sur :
- Les politiques et la structure de gouvernance de l’IA
- La protection de la vie privée des patients et la transparence
- La sécurité des données et les protections d’utilisation des données
- La surveillance continue de la qualité
- Le signalement des événements de sécurité
- L’évaluation des risques et des biais
- La formation et l’éducation
Les recommandations incluent également des dispositions que les fournisseurs de soins de santé peuvent vouloir intégrer dans leurs contrats avec des tiers pour se conformer aux normes de confidentialité et de sécurité des données.
Défis rencontrés par les systèmes de santé
Troy Bannister, fondateur et PDG de Onboard AI, a souligné que seule une petite fraction des systèmes hospitaliers dispose des ressources nécessaires pour créer une surveillance complète et réactive aux risques émergents. Les hôpitaux ont exprimé des préoccupations quant à leur capacité à surveiller chaque outil d’IA.
Actuellement, les cas d’utilisation de l’IA dans les hôpitaux sont principalement de faible risque, comme la révision de dossiers ou le triage radiologique, impliquant toujours une supervision humaine.
Perspectives sur les normes et régulations
Le consensus parmi les experts est que bien que des normes soient nécessaires, le véritable défi réside dans l’infrastructure et les systèmes de données nécessaires pour surveiller ces outils à grande échelle. Mark Sendak, co-fondateur de Vega Health, a exprimé des doutes quant à l’idée de contourner certaines réglementations pour encourager l’innovation.
Sendak suggère plutôt un modèle similaire aux Clinical Laboratory Improvement Amendments (CLIA), où une série de pratiques standardisées serait mise en place pour assurer le contrôle de la qualité et l’assurance qualité de l’IA à grande échelle.
Conclusion
Alors que les systèmes de santé adoptent de plus en plus l’IA, il est essentiel de trouver un équilibre entre l’innovation et la réglementation pour garantir la sécurité et l’efficacité des outils d’IA. Les discussions autour de la gouvernance de l’IA continueront d’évoluer, avec des attentes croissantes pour des infrastructures robustes et des réglementations appropriées.