AI dans le secteur de la santé : Gouvernance, équité et innovation responsable en Inde
La conversation sur l’intelligence artificielle dans le domaine de la santé est souvent dominée par de grandes promesses : diagnostics plus rapides, accès évolutif et médecine de précision à l’échelle de la population. Toutefois, lors du dialogue inaugural sur l’IA responsable pour l’excellence synergique dans le secteur de la santé, l’accent a été mis sur des questions plus difficiles : pour qui l’IA fonctionne-t-elle réellement, qui est laissée de côté et comment gouverner ce que nous ne comprenons pas encore pleinement.
Les défis de l’IA dans la santé
Un fil conducteur à travers les sessions était l’écart entre la capacité technique et la préparation institutionnelle. Un expert a mis en garde contre le problème persistant du « pilotitis » — la tendance des solutions de santé numérique à rester piégées dans des projets pilotes sans jamais se déployer dans les systèmes publics. Des cadres comme SALIENT sont essentiels car ils obligent les praticiens à penser au-delà des modèles et des métriques, vers l’intégration, l’évaluation et l’utilisation à long terme.
Cette tension entre optimisation et équité a été un thème récurrent. Une question posée lors des remarques d’ouverture a soulevé un point important : « Choisiriez-vous un modèle avec une précision moyenne plus élevée, mais une performance médiocre pour certains groupes, ou un modèle avec une précision inférieure qui montre l’équité dans les résultats ? » Cela a conduit à une phrase devenue une sorte de refrain : « IA pour la santé, pas la santé pour l’IA. »
Exemples de mise en œuvre et implications
Des études de cas ont montré à la fois la promesse et la fragilité de l’IA, avec des pipelines de données fragiles, une infrastructure inégale, une incertitude réglementaire et des biais sociaux profondément ancrés que les algorithmes peuvent facilement reproduire.
Les discussions sur la santé mentale étaient particulièrement prudentes, soulignant que les modèles linguistiques sont souvent « optimisés pour l’engagement, pas pour les résultats cliniques », et que le jugement en santé mentale ne peut pas être entièrement automatisé. Le défi n’est pas de savoir si l’IA a un rôle, mais comment ce rôle est défini, en particulier lorsqu’il s’agit de populations vulnérables.
Validation et responsabilité
La validation et la responsabilité ont également émergé comme des points centraux. Il a été souligné que des données imparfaites produisent des modèles imparfaits, en particulier dans des contextes aussi divers que celui de l’Inde. La surveillance continue, l’atténuation des biais et les systèmes avec intervention humaine doivent devenir la norme.
En réfléchissant aux implications plus larges, un expert a noté que le véritable test de l’IA en santé n’est pas la précision maximale dans des environnements contrôlés, mais la performance équitable dans le monde réel. Si les systèmes d’IA fonctionnent bien en moyenne mais échouent pour certaines populations, c’est l’objectif qui a échoué.
Conclusion
Il a été souligné que l’IA responsable dans le secteur de la santé ne peut pas être construite en silos. Les universités ont un rôle crucial à jouer, non seulement en faisant avancer la recherche, mais aussi en créant l’infrastructure intellectuelle et institutionnelle nécessaire pour garantir que l’IA serve le bien public, l’équité et la confiance à grande échelle. Le dialogue sur l’IA dans la santé en Inde semble enfin passer de l’enthousiasme à une approche plus pragmatique et responsable.