Réglementation AI en santé : combler les lacunes nécessaires

A rusted, patched-up medical stethoscope with a digital AI interface

Des lacunes dans la régulation fédérale de l’IA en santé doivent être comblées

Avec l’utilisation croissante de l’intelligence artificielle dans les environnements de santé, des experts appellent à un renforcement des régulations entourant cette technologie.

Ces dernières années, l’IA est devenue un outil populaire tant dans la recherche médicale que dans les environnements cliniques. Des préoccupations ont été exprimées concernant les cadres réglementaires actuels de l’IA, ainsi que des solutions potentielles.

Problèmes avec le cadre actuel

Avant que de nouveaux dispositifs médicaux ne soient commercialisés, ils doivent être jugés « sûrs et efficaces » par l’administration. Cependant, les voies d’approbation de ces dispositifs, développées il y a des décennies pour des appareils médicaux traditionnels, ne s’appliquent pas bien aux dispositifs modernes d’IA.

Le cadre actuel pour l’approbation de ces outils, le parcours 510(k), accorde une autorisation à environ 98 % des dispositifs activés par IA. Ce parcours est destiné aux dispositifs similaires à des options déjà présentes sur le marché, ce qui signifie que la quantité de données ou de preuves requises n’est pas aussi robuste.

Les experts ont exprimé que cette approche présente de nombreuses lacunes. Une fois qu’un dispositif d’IA est mis en œuvre, sa performance peut évoluer avec le temps et varier selon les emplacements, entraînant un phénomène connu sous le nom de « dérive ». Le processus réglementaire actuel manque d’une bonne infrastructure pour garantir qu’un système d’IA fonctionne correctement à l’endroit où il est déployé.

Propositions pour une régulation améliorée

Pour garantir que les outils d’IA soient correctement formés et testés avant qu’une pratique indépendante ne soit envisagée, il est proposé d’adopter un cadre plus étendu et robuste. Cela inclurait un modèle de supervision qui mène à une autonomie graduelle, semblable à ce qu’un humain rencontrerait en approchant de la pratique indépendante.

Des institutions doivent également adopter leurs propres processus de gouvernance de l’IA pour déterminer le bon niveau d’évaluation, de rigueur et de transparence. Cela devrait être en place indépendamment des exigences fédérales ou étatiques.

Régulations législatives en cours

Dans certaines régions, des législations ont été introduites pour exiger une transparence de la part des assureurs, des hôpitaux et des cliniciens dans les circonstances où l’IA est utilisée. Ces lois visent à garantir qu’une évaluation individualisée soit réalisée par un humain et que les biais et discriminations soient minimisés dans l’utilisation de l’IA.

Bien que ces mesures soient considérées comme un bon début, il est souligné qu’elles diffèrent de la réglementation des dispositifs dans le cadre du soutien à la décision, qui ne semble pas être abordée.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...