Renforcer la surveillance des IA médicales

A futuristic, transparent AI brain with a network of glowing, pulsating veins that light up in different colors to represent various regulatory checkpoints and approval processes.

Améliorer la surveillance réglementaire de l’IA médicale

Considérez une technologie capable d’identifier les tumeurs cérébrales pédiatriques plus rapidement qu’un humain. Cet avenir est déjà là. Deux tiers des professionnels de la santé ont déclaré intégrer l’intelligence artificielle (IA) dans leur travail, selon une étude récente. Cependant, de nombreux cliniciens ont également exprimé le besoin d’une « surveillance accrue » de l’IA médicale.

La nécessité d’une surveillance accrue

Il a été soutenu que la surveillance actuelle de l’IA médicale repose trop sur un « humain dans la boucle », ce qui exige que chaque clinicien examine et intègre les recommandations de l’IA de manière sûre et efficace. Il a été constaté que la plupart des cliniciens manquent de l’expertise ou du temps nécessaires pour évaluer l’IA médicale, ce qui appelle à des structures réglementaires favorisant une IA médicale sûre et efficace sans dépendre des cliniciens individuels.

Les défauts de conception et les biais

Il a été souligné que l’IA médicale nécessite une surveillance en raison de défauts de conception « basiques ». Une étude a montré qu’un algorithme entraîné à détecter la pneumonie à partir de radiographies fonctionnait bien à l’hôpital où il avait été développé, mais échouait dans d’autres hôpitaux. L’algorithme avait appris à identifier des caractéristiques reflétant l’environnement physique de l’hôpital d’origine plutôt que les symptômes des patients. De plus, moins de cinq pour cent des systèmes d’IA approuvés par les autorités entre 2012 et 2020 ont divulgué des données démographiques raciales, augmentant le risque que des données d’entraînement non représentatives aggravent les résultats pour les groupes raciaux minoritaires.

Cadres réglementaires actuels

Les cadres réglementaires actuels abordent ces défauts de conception et biais à travers deux niveaux de gouvernance : central et local. Au niveau central, des agences fédérales et des organisations médicales développent des cadres et règles pour surveiller et tester l’IA médicale. Par exemple, les réglementations exigent que de nombreux systèmes d’IA répondent à des normes de sécurité et d’efficacité avant d’entrer sur le marché. Cependant, les directives actuelles mettent l’accent sur le fait que les recommandations de l’IA doivent fournir aux cliniciens des informations « spécifiques au patient », laissant ainsi une responsabilité significative de gouvernance aux cliniciens individuels.

Défis du niveau local

La gouvernance locale transfère la surveillance aux hôpitaux qui testent les systèmes d’IA dans leurs propres environnements cliniques. Cependant, cette gouvernance exige une expertise, une infrastructure et des ressources humaines substantielles, des exigences que de nombreux hôpitaux plus petits ou sous-financés ne peuvent pas satisfaire sans faire appel à leurs cliniciens, qui manquent souvent de soutien.

Rôle des cliniciens

Les cliniciens jouent souvent un rôle « correctif » en vérifiant les erreurs, en ajustant les facteurs « spécifiques à la situation » et en identifiant les biais. Cependant, les études montrent que les cliniciens échouent souvent à identifier des modèles défectueux ou biaisés, même lorsqu’on leur fournit des outils explicatifs pour rendre les problèmes visibles. Cette difficulté est attribuée à des lacunes dans les connaissances. Beaucoup de cliniciens manquent de familiarité avec les principes généraux de l’IA ou le biais systématique.

Solutions à court et long terme

Une solution à court terme proposée est de définir des rôles clairs et limités pour les cliniciens afin que la surveillance de l’IA médicale ne compromette pas leurs autres responsabilités. En outre, un soutien institutionnel tel que l’intégration, la formation et le suivi continu est suggéré pour aider les cliniciens à superviser l’utilisation sûre et efficace de la technologie IA.

À long terme, il est envisagé que l’IA médicale fonctionne sans dépendre d’une surveillance constante des cliniciens. Les régulateurs et organisations médicales sont encouragés à évaluer les systèmes d’IA comme des outils indépendants capables d’opérer dans des contextes avec une expertise médicale limitée. Cela pourrait réduire la dépendance vis-à-vis des cliniciens surchargés et élargir l’accès aux soins.

Conclusion

Il est reconnu que l’IA médicale n’améliorera les résultats de santé que si les cadres de surveillance anticipent les limitations cliniques plutôt que de supposer une performance parfaite de la part des cliniciens.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...