Nouveau rapport clarifie la réglementation complexe des outils d’IA en santé

Un nouveau rapport examine le paysage réglementaire complexe et souvent fragmenté des outils d’IA en santé qui échappent à la compétence de la Food and Drug Administration (FDA) des États-Unis. À mesure que l’IA devient de plus en plus intégrée dans le secteur de la santé—automatisant des tâches administratives, guidant des décisions cliniques et alimentant des applications de bien-être pour les consommateurs—ces outils fonctionnent au sein d’un patchwork de règles fédérales, de lois d’État et de normes industrielles volontaires.

Les types d’IA en santé non régulés comme dispositifs médicaux

Le rapport indique que certains outils d’IA destinés à diagnostiquer, prévenir ou traiter des maladies sont régulés par la FDA en tant que dispositifs médicaux, tandis qu’une catégorie croissante d’outils d’IA en santé opère en dehors de cette surveillance formelle. Ces outils sont plutôt régis par un mélange de politiques émanant d’agences comme le Department of Health and Human Services (HHS), la Federal Trade Commission (FTC) et diverses autorités étatiques.

Les catégories courantes d’IA en santé qui ne sont généralement pas régulées par la FDA incluent :

  • IA administrative : Outils soutenant des fonctions non cliniques telles que l’automatisation de l’autorisation préalable, la détection de la fraude de facturation, la prévision des besoins en personnel ou la gestion de la planification des rendez-vous.
  • Outils de support clinique et de gestion des soins : IA intégrée dans les dossiers de santé électroniques (DSE) qui analyse les données des patients pour suggérer des actions de suivi, comme signaler un patient comme étant en retard pour un dépistage du cancer. Ces outils sont conçus pour informer, et non pour remplacer le jugement d’un clinicien.
  • Outils de bien-être et de santé numérique : Applications et dispositifs destinés aux patients, axés sur le bien-être général, comme les trackers de fitness, les applications de méditation et les trackers de sommeil.

Comment la loi de 21st Century Cures influence la surveillance de l’IA

La loi de 21st Century Cures de 2016 a été déterminante pour définir l’autorité de la FDA sur les logiciels de santé. Elle a clarifié que certains outils de support à la décision clinique (CDS) sont exemptés d’être classés comme dispositifs médicaux s’ils remplissent quatre critères spécifiques :

  1. Ils n’analysent pas d’images ou de signaux (comme les rayons X ou les rythmes cardiaques).
  2. Ils utilisent des informations médicales existantes du dossier du patient.
  3. Ils soutiennent, mais ne remplacent pas, la décision clinique finale.
  4. Leurs recommandations peuvent être examinées et comprises de manière indépendante par le fournisseur.

Si un outil ne remplit même un de ces critères, il peut être considéré comme Software as a Medical Device (SaMD) et tomber sous la surveillance de la FDA. Cela crée une zone grise significative qui peut être difficile à naviguer pour les développeurs.

Surveillance distribuée pour les outils non considérés comme dispositifs médicaux

Pour les outils d’IA qui ne sont pas considérés comme des dispositifs médicaux, la surveillance est répartie entre plusieurs agences fédérales et étatiques, ce qui peut créer à la fois de la flexibilité et des lacunes potentielles.

  • Bureau du Coordinateur national pour les technologies de l’information en santé (ONC) : Si un outil d’IA est intégré dans un DSE certifié, les règles de l’ONC exigent que les développeurs divulguent l’utilisation prévue de l’outil, sa logique et ses entrées de données. Cependant, cela ne s’applique qu’aux outils fournis par le développeur du DSE, et non aux applications développées en interne ou par des tiers.
  • Bureau des droits civils (OCR) : Tout outil qui manipule des informations de santé protégées (PHI) est soumis à l’application de l’OCR de la loi HIPAA. L’OCR applique également des règles contre la discrimination algorithmique dans les programmes de santé financés par le gouvernement fédéral.
  • Commission fédérale du commerce (FTC) : La FTC peut agir contre les entreprises pour des allégations marketing trompeuses concernant leurs outils d’IA. Elle applique également la règle de notification des violations de données pour les applications non couvertes par HIPAA, exigeant qu’elles notifient les utilisateurs d’une violation de données.
  • Centres de Medicare et de Medicaid (CMS) : Le CMS peut influencer l’adoption d’outils d’IA par ses politiques de remboursement et ses conditions de participation pour les fournisseurs.
  • Surveillance au niveau des États : Les États sont de plus en plus actifs dans la régulation de l’IA. Cela a conduit à une variété d’approches, allant des lois sur les risques liés à l’IA comme celle adoptée au Colorado, aux lois ciblées de divulgation et de protection des consommateurs dans des États comme Illinois et Utah. Certains États créent également des « regulatory sandboxes » pour encourager l’innovation sous des garanties définies.

Vers des cadres plus définis pour soutenir une IA responsable

Le rapport conclut que le paysage fragmenté actuel crée de l’incertitude pour les développeurs, complique l’adoption pour les fournisseurs et laisse des lacunes dans la protection des patients. À mesure que l’industrie avance, les décideurs et les leaders du secteur doivent continuer à collaborer pour développer des cadres clairs et des normes partagées afin de soutenir une innovation responsable, garantir la confiance des patients et améliorer la qualité des soins.

« La révolution de l’IA dans le secteur de la santé est bien engagée, transformant la manière dont les soins sont dispensés et soulevant de nouvelles questions concernant la réglementation. Alors que les décideurs et les agences travaillent à équilibrer l’innovation responsable avec la protection des patients, une vue claire du paysage réglementaire d’aujourd’hui est essentielle. Ce rapport offre un aperçu pour aider à ancrer les conversations politiques à venir. »

Articles

Examiner les impacts de la Loi sur l’Intelligence Artificielle de l’UE

De nouvelles obligations découlant de la loi sur l'intelligence artificielle de l'UE concernant les modèles d'IA à usage général entreront en vigueur en août, avec d'autres obligations prévues pour...

L’Intelligence Artificielle sous Régulation : Un Débat Crucial

Le scientifique en chef de Microsoft, Dr. Eric Horvitz, critique la proposition de Donald Trump visant à interdire la réglementation de l'IA au niveau des États, affirmant que cela pourrait freiner le...

Pression américaine et régulation de l’IA : l’Europe doit agir maintenant

Scarcely six months after the world’s first comprehensive AI legislation entered into force, heads of state, CEOs from companies such as Google, Microsoft, and OpenAI gathered in Paris last February...

Réglementation des outils d’IA en santé : Défis et opportunités

Un nouveau rapport du Bipartisan Policy Center examine le paysage réglementaire complexe des outils d'IA en santé qui échappent à la juridiction de la FDA. Ce rapport souligne l'importance de...

Gouvernance de l’IA au Texas : Une Révolution Législative

Le 31 mai 2025, la législature du Texas a adopté la loi sur la gouvernance responsable de l'intelligence artificielle (TRAIGA), qui établit des exigences de divulgation pour les développeurs et...

Texas adopte une loi pionnière sur la gouvernance de l’IA responsable

Le 22 juin 2025, le gouverneur du Texas, Greg Abbott, a signé la loi sur la gouvernance responsable de l'IA au Texas (TRAIGA), marquant la fin d'un projet de loi qui a reçu une attention nationale...

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...