Paysage Réglementaire pour la MedTech Alimentée par l’IA dans la région APAC

La réglementation de l’intelligence artificielle (IA) dans la région Asie-Pacifique (APAC) reste encore naissante, principalement régie par des cadres réglementaires existants conçus pour d’autres technologies et produits. C’est un travail en cours.

Les techniques d’IA – apprentissage automatique (ML), apprentissage profond, et traitement du langage naturel – sont transformantes et de plus en plus utilisées. Cependant, elles présentent des défis et des préoccupations tels que le biais et la discrimination, le contenu faux et la désinformation, la vie privée et la sécurité, des questions éthiques, et des conséquences non intentionnelles.

Alors, comment les régulateurs réagissent-ils ? Ce qui suit est un aperçu des progrès réalisés en APAC, en Europe et en Amérique du Nord. Cela s’inspire d’un webinaire sur la MedTech APAC donné le 25 mars et d’une table ronde organisée par Vivli le 16 avril à Tokyo.

Asie-Pacifique

Dans toute la région APAC, il n’existe actuellement aucune loi globale régissant l’IA, mais cela devrait changer dans les mois à venir.

  • Chine : Le Congrès National du Peuple a exhorté le Conseil d’État à rédiger un statut général. Le système réglementaire actuel se compose principalement de règlements administratifs et de normes.
  • Japon : La réglementation de l’IA se fait au niveau sectoriel dans les industries concernées. Dans les secteurs de la santé et des sciences de la vie, il existe des lois pour réglementer les outils alimentés par l’IA/ML. Cela inclut la Loi sur les infrastructures médicales de nouvelle génération de 2023 visant à faciliter l’utilisation de l’IA dans la recherche et le développement d’outils de diagnostic médical alimentés par l’IA.
  • Australie : L’intention du gouvernement est d’adopter une approche basée sur des principes ou sur une liste pour définir l’IA à haut risque, similaire à l’UE.
  • Singapour : Des cadres sont en place pour guider le déploiement de l’IA et promouvoir l’utilisation responsable de l’IA, y compris des principes éthiques et de gouvernance clés, ainsi que des tests standardisés pour valider l’adoption de ces principes. Sa Stratégie Nationale de l’Intelligence Artificielle 2.0 trace l’engagement de Singapour à construire un écosystème IA de confiance et responsable, tandis que ses Directives sur l’IA en santé visent à améliorer la compréhension, codifier les bonnes pratiques et soutenir la croissance sécurisée de l’IA dans le domaine de la santé.
  • Corée du Sud : La Loi sur les Produits Médicaux Numériques (janvier 2025) fournit la base d’un cadre réglementaire régissant les dispositifs médicaux numériques. En outre, la Loi de base sur l’IA (décembre 2024) doit entrer en vigueur le 22 janvier 2026 et s’appliquer à toute activité liée à l’IA ayant un impact sur le marché local, qu’elle soit d’origine nationale ou étrangère. Elle classe l’IA en fonction du risque.

Europe

La Loi sur l’IA de l’Union Européenne (2024) établit des règles harmonisées sur l’IA et constitue la première législation globale sur l’IA. Elle s’applique à tous les systèmes d’IA mis sur le marché ou mis en service dans l’UE, les classant selon quatre niveaux de risque allant de très élevé à minime. Les dispositifs médicaux intégrant des fonctions alimentées par l’IA/ML seront probablement classés comme à haut risque.

La Loi sur l’IA définit des obligations spécifiques pour les systèmes d’IA à haut risque, dont beaucoup se chevauchent avec les procédures existantes exigées par le Règlement sur les Dispositifs Médicaux (MDR) et le Règlement sur les Dispositifs Médicaux de Diagnostic In Vitro (IVDR). Ces obligations portent principalement sur l’évaluation et la mitigation des risques, la conformité, la tenue de dossiers, la cybersécurité et d’autres bonnes pratiques.

États-Unis

Les États-Unis n’ont actuellement aucune loi spécifique à l’IA et la Food and Drug Administration (FDA) n’a pas de cadre réglementaire distinct établi régissant les produits médicaux alimentés par l’IA. Cela signifie que si un produit alimenté par l’IA/ML répond à la définition de « dispositif médical », la FDA le régulera en tant que « Logiciel en tant que Dispositif Médical » (SaMD) selon son cadre réglementaire traditionnel pour les dispositifs médicaux.

Comme la structure réglementaire traditionnelle de la FDA n’est pas conçue pour les technologies adaptatives alimentées par l’IA/ML, elle a adopté une approche flexible pour réglementer afin de faciliter l’innovation tout en équilibrant la s sécurité et l’efficacité. Les considérations clés incluent l’application de bonnes pratiques d’apprentissage automatique (GMLPs) dans le développement, la documentation des modifications, la transparence et le suivi des données de performance en temps réel pour comprendre pleinement l’utilisation du produit et identifier les problèmes dès le début.

La FDA coordonne ses efforts avec Health Canada et l’Agence des Médicaments et des Produits de Santé du Royaume-Uni (MHRA) pour développer des GMLPs harmonisées à l’international qui s’appuient sur un ensemble de principes directeurs convenus. Cet engagement a été réaffirmé en mars 2025 et met en évidence la vision partagée de ces régulateurs d’adapter les processus et les normes qui soutiennent l’innovation tout en garantissant la sécurité des patients dans ce domaine.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...