Paysage Réglementaire pour la MedTech Alimentée par l’IA dans la région APAC
La réglementation de l’intelligence artificielle (IA) dans la région Asie-Pacifique (APAC) reste encore naissante, principalement régie par des cadres réglementaires existants conçus pour d’autres technologies et produits. C’est un travail en cours.
Les techniques d’IA – apprentissage automatique (ML), apprentissage profond, et traitement du langage naturel – sont transformantes et de plus en plus utilisées. Cependant, elles présentent des défis et des préoccupations tels que le biais et la discrimination, le contenu faux et la désinformation, la vie privée et la sécurité, des questions éthiques, et des conséquences non intentionnelles.
Alors, comment les régulateurs réagissent-ils ? Ce qui suit est un aperçu des progrès réalisés en APAC, en Europe et en Amérique du Nord. Cela s’inspire d’un webinaire sur la MedTech APAC donné le 25 mars et d’une table ronde organisée par Vivli le 16 avril à Tokyo.
Asie-Pacifique
Dans toute la région APAC, il n’existe actuellement aucune loi globale régissant l’IA, mais cela devrait changer dans les mois à venir.
- Chine : Le Congrès National du Peuple a exhorté le Conseil d’État à rédiger un statut général. Le système réglementaire actuel se compose principalement de règlements administratifs et de normes.
- Japon : La réglementation de l’IA se fait au niveau sectoriel dans les industries concernées. Dans les secteurs de la santé et des sciences de la vie, il existe des lois pour réglementer les outils alimentés par l’IA/ML. Cela inclut la Loi sur les infrastructures médicales de nouvelle génération de 2023 visant à faciliter l’utilisation de l’IA dans la recherche et le développement d’outils de diagnostic médical alimentés par l’IA.
- Australie : L’intention du gouvernement est d’adopter une approche basée sur des principes ou sur une liste pour définir l’IA à haut risque, similaire à l’UE.
- Singapour : Des cadres sont en place pour guider le déploiement de l’IA et promouvoir l’utilisation responsable de l’IA, y compris des principes éthiques et de gouvernance clés, ainsi que des tests standardisés pour valider l’adoption de ces principes. Sa Stratégie Nationale de l’Intelligence Artificielle 2.0 trace l’engagement de Singapour à construire un écosystème IA de confiance et responsable, tandis que ses Directives sur l’IA en santé visent à améliorer la compréhension, codifier les bonnes pratiques et soutenir la croissance sécurisée de l’IA dans le domaine de la santé.
- Corée du Sud : La Loi sur les Produits Médicaux Numériques (janvier 2025) fournit la base d’un cadre réglementaire régissant les dispositifs médicaux numériques. En outre, la Loi de base sur l’IA (décembre 2024) doit entrer en vigueur le 22 janvier 2026 et s’appliquer à toute activité liée à l’IA ayant un impact sur le marché local, qu’elle soit d’origine nationale ou étrangère. Elle classe l’IA en fonction du risque.
Europe
La Loi sur l’IA de l’Union Européenne (2024) établit des règles harmonisées sur l’IA et constitue la première législation globale sur l’IA. Elle s’applique à tous les systèmes d’IA mis sur le marché ou mis en service dans l’UE, les classant selon quatre niveaux de risque allant de très élevé à minime. Les dispositifs médicaux intégrant des fonctions alimentées par l’IA/ML seront probablement classés comme à haut risque.
La Loi sur l’IA définit des obligations spécifiques pour les systèmes d’IA à haut risque, dont beaucoup se chevauchent avec les procédures existantes exigées par le Règlement sur les Dispositifs Médicaux (MDR) et le Règlement sur les Dispositifs Médicaux de Diagnostic In Vitro (IVDR). Ces obligations portent principalement sur l’évaluation et la mitigation des risques, la conformité, la tenue de dossiers, la cybersécurité et d’autres bonnes pratiques.
États-Unis
Les États-Unis n’ont actuellement aucune loi spécifique à l’IA et la Food and Drug Administration (FDA) n’a pas de cadre réglementaire distinct établi régissant les produits médicaux alimentés par l’IA. Cela signifie que si un produit alimenté par l’IA/ML répond à la définition de « dispositif médical », la FDA le régulera en tant que « Logiciel en tant que Dispositif Médical » (SaMD) selon son cadre réglementaire traditionnel pour les dispositifs médicaux.
Comme la structure réglementaire traditionnelle de la FDA n’est pas conçue pour les technologies adaptatives alimentées par l’IA/ML, elle a adopté une approche flexible pour réglementer afin de faciliter l’innovation tout en équilibrant la s sécurité et l’efficacité. Les considérations clés incluent l’application de bonnes pratiques d’apprentissage automatique (GMLPs) dans le développement, la documentation des modifications, la transparence et le suivi des données de performance en temps réel pour comprendre pleinement l’utilisation du produit et identifier les problèmes dès le début.
La FDA coordonne ses efforts avec Health Canada et l’Agence des Médicaments et des Produits de Santé du Royaume-Uni (MHRA) pour développer des GMLPs harmonisées à l’international qui s’appuient sur un ensemble de principes directeurs convenus. Cet engagement a été réaffirmé en mars 2025 et met en évidence la vision partagée de ces régulateurs d’adapter les processus et les normes qui soutiennent l’innovation tout en garantissant la sécurité des patients dans ce domaine.