Améliorer la surveillance réglementaire de l’IA médicale
Considérez une technologie capable d’identifier les tumeurs cérébrales pédiatriques plus rapidement qu’un humain. Cet avenir est déjà là. Deux tiers des professionnels de la santé ont déclaré intégrer l’intelligence artificielle (IA) dans leur travail, selon une étude récente. Cependant, de nombreux cliniciens ont également exprimé le besoin d’une « surveillance accrue » de l’IA médicale.
La nécessité d’une surveillance accrue
Il a été soutenu que la surveillance actuelle de l’IA médicale repose trop sur un « humain dans la boucle », ce qui exige que chaque clinicien examine et intègre les recommandations de l’IA de manière sûre et efficace. Il a été constaté que la plupart des cliniciens manquent de l’expertise ou du temps nécessaires pour évaluer l’IA médicale, ce qui appelle à des structures réglementaires favorisant une IA médicale sûre et efficace sans dépendre des cliniciens individuels.
Les défauts de conception et les biais
Il a été souligné que l’IA médicale nécessite une surveillance en raison de défauts de conception « basiques ». Une étude a montré qu’un algorithme entraîné à détecter la pneumonie à partir de radiographies fonctionnait bien à l’hôpital où il avait été développé, mais échouait dans d’autres hôpitaux. L’algorithme avait appris à identifier des caractéristiques reflétant l’environnement physique de l’hôpital d’origine plutôt que les symptômes des patients. De plus, moins de cinq pour cent des systèmes d’IA approuvés par les autorités entre 2012 et 2020 ont divulgué des données démographiques raciales, augmentant le risque que des données d’entraînement non représentatives aggravent les résultats pour les groupes raciaux minoritaires.
Cadres réglementaires actuels
Les cadres réglementaires actuels abordent ces défauts de conception et biais à travers deux niveaux de gouvernance : central et local. Au niveau central, des agences fédérales et des organisations médicales développent des cadres et règles pour surveiller et tester l’IA médicale. Par exemple, les réglementations exigent que de nombreux systèmes d’IA répondent à des normes de sécurité et d’efficacité avant d’entrer sur le marché. Cependant, les directives actuelles mettent l’accent sur le fait que les recommandations de l’IA doivent fournir aux cliniciens des informations « spécifiques au patient », laissant ainsi une responsabilité significative de gouvernance aux cliniciens individuels.
Défis du niveau local
La gouvernance locale transfère la surveillance aux hôpitaux qui testent les systèmes d’IA dans leurs propres environnements cliniques. Cependant, cette gouvernance exige une expertise, une infrastructure et des ressources humaines substantielles, des exigences que de nombreux hôpitaux plus petits ou sous-financés ne peuvent pas satisfaire sans faire appel à leurs cliniciens, qui manquent souvent de soutien.
Rôle des cliniciens
Les cliniciens jouent souvent un rôle « correctif » en vérifiant les erreurs, en ajustant les facteurs « spécifiques à la situation » et en identifiant les biais. Cependant, les études montrent que les cliniciens échouent souvent à identifier des modèles défectueux ou biaisés, même lorsqu’on leur fournit des outils explicatifs pour rendre les problèmes visibles. Cette difficulté est attribuée à des lacunes dans les connaissances. Beaucoup de cliniciens manquent de familiarité avec les principes généraux de l’IA ou le biais systématique.
Solutions à court et long terme
Une solution à court terme proposée est de définir des rôles clairs et limités pour les cliniciens afin que la surveillance de l’IA médicale ne compromette pas leurs autres responsabilités. En outre, un soutien institutionnel tel que l’intégration, la formation et le suivi continu est suggéré pour aider les cliniciens à superviser l’utilisation sûre et efficace de la technologie IA.
À long terme, il est envisagé que l’IA médicale fonctionne sans dépendre d’une surveillance constante des cliniciens. Les régulateurs et organisations médicales sont encouragés à évaluer les systèmes d’IA comme des outils indépendants capables d’opérer dans des contextes avec une expertise médicale limitée. Cela pourrait réduire la dépendance vis-à-vis des cliniciens surchargés et élargir l’accès aux soins.
Conclusion
Il est reconnu que l’IA médicale n’améliorera les résultats de santé que si les cadres de surveillance anticipent les limitations cliniques plutôt que de supposer une performance parfaite de la part des cliniciens.