Des lacunes dans la régulation fédérale de l’IA en santé doivent être comblées
Avec l’utilisation croissante de l’intelligence artificielle dans les environnements de santé, des experts appellent à un renforcement des régulations entourant cette technologie.
Ces dernières années, l’IA est devenue un outil populaire tant dans la recherche médicale que dans les environnements cliniques. Des préoccupations ont été exprimées concernant les cadres réglementaires actuels de l’IA, ainsi que des solutions potentielles.
Problèmes avec le cadre actuel
Avant que de nouveaux dispositifs médicaux ne soient commercialisés, ils doivent être jugés « sûrs et efficaces » par l’administration. Cependant, les voies d’approbation de ces dispositifs, développées il y a des décennies pour des appareils médicaux traditionnels, ne s’appliquent pas bien aux dispositifs modernes d’IA.
Le cadre actuel pour l’approbation de ces outils, le parcours 510(k), accorde une autorisation à environ 98 % des dispositifs activés par IA. Ce parcours est destiné aux dispositifs similaires à des options déjà présentes sur le marché, ce qui signifie que la quantité de données ou de preuves requises n’est pas aussi robuste.
Les experts ont exprimé que cette approche présente de nombreuses lacunes. Une fois qu’un dispositif d’IA est mis en œuvre, sa performance peut évoluer avec le temps et varier selon les emplacements, entraînant un phénomène connu sous le nom de « dérive ». Le processus réglementaire actuel manque d’une bonne infrastructure pour garantir qu’un système d’IA fonctionne correctement à l’endroit où il est déployé.
Propositions pour une régulation améliorée
Pour garantir que les outils d’IA soient correctement formés et testés avant qu’une pratique indépendante ne soit envisagée, il est proposé d’adopter un cadre plus étendu et robuste. Cela inclurait un modèle de supervision qui mène à une autonomie graduelle, semblable à ce qu’un humain rencontrerait en approchant de la pratique indépendante.
Des institutions doivent également adopter leurs propres processus de gouvernance de l’IA pour déterminer le bon niveau d’évaluation, de rigueur et de transparence. Cela devrait être en place indépendamment des exigences fédérales ou étatiques.
Régulations législatives en cours
Dans certaines régions, des législations ont été introduites pour exiger une transparence de la part des assureurs, des hôpitaux et des cliniciens dans les circonstances où l’IA est utilisée. Ces lois visent à garantir qu’une évaluation individualisée soit réalisée par un humain et que les biais et discriminations soient minimisés dans l’utilisation de l’IA.
Bien que ces mesures soient considérées comme un bon début, il est souligné qu’elles diffèrent de la réglementation des dispositifs dans le cadre du soutien à la décision, qui ne semble pas être abordée.