Paysage Réglementaire pour la MedTech Alimentée par l’IA dans la région APAC

La réglementation de l’intelligence artificielle (IA) dans la région Asie-Pacifique (APAC) reste encore naissante, principalement régie par des cadres réglementaires existants conçus pour d’autres technologies et produits. C’est un travail en cours.

Les techniques d’IA – apprentissage automatique (ML), apprentissage profond, et traitement du langage naturel – sont transformantes et de plus en plus utilisées. Cependant, elles présentent des défis et des préoccupations tels que le biais et la discrimination, le contenu faux et la désinformation, la vie privée et la sécurité, des questions éthiques, et des conséquences non intentionnelles.

Alors, comment les régulateurs réagissent-ils ? Ce qui suit est un aperçu des progrès réalisés en APAC, en Europe et en Amérique du Nord. Cela s’inspire d’un webinaire sur la MedTech APAC donné le 25 mars et d’une table ronde organisée par Vivli le 16 avril à Tokyo.

Asie-Pacifique

Dans toute la région APAC, il n’existe actuellement aucune loi globale régissant l’IA, mais cela devrait changer dans les mois à venir.

  • Chine : Le Congrès National du Peuple a exhorté le Conseil d’État à rédiger un statut général. Le système réglementaire actuel se compose principalement de règlements administratifs et de normes.
  • Japon : La réglementation de l’IA se fait au niveau sectoriel dans les industries concernées. Dans les secteurs de la santé et des sciences de la vie, il existe des lois pour réglementer les outils alimentés par l’IA/ML. Cela inclut la Loi sur les infrastructures médicales de nouvelle génération de 2023 visant à faciliter l’utilisation de l’IA dans la recherche et le développement d’outils de diagnostic médical alimentés par l’IA.
  • Australie : L’intention du gouvernement est d’adopter une approche basée sur des principes ou sur une liste pour définir l’IA à haut risque, similaire à l’UE.
  • Singapour : Des cadres sont en place pour guider le déploiement de l’IA et promouvoir l’utilisation responsable de l’IA, y compris des principes éthiques et de gouvernance clés, ainsi que des tests standardisés pour valider l’adoption de ces principes. Sa Stratégie Nationale de l’Intelligence Artificielle 2.0 trace l’engagement de Singapour à construire un écosystème IA de confiance et responsable, tandis que ses Directives sur l’IA en santé visent à améliorer la compréhension, codifier les bonnes pratiques et soutenir la croissance sécurisée de l’IA dans le domaine de la santé.
  • Corée du Sud : La Loi sur les Produits Médicaux Numériques (janvier 2025) fournit la base d’un cadre réglementaire régissant les dispositifs médicaux numériques. En outre, la Loi de base sur l’IA (décembre 2024) doit entrer en vigueur le 22 janvier 2026 et s’appliquer à toute activité liée à l’IA ayant un impact sur le marché local, qu’elle soit d’origine nationale ou étrangère. Elle classe l’IA en fonction du risque.

Europe

La Loi sur l’IA de l’Union Européenne (2024) établit des règles harmonisées sur l’IA et constitue la première législation globale sur l’IA. Elle s’applique à tous les systèmes d’IA mis sur le marché ou mis en service dans l’UE, les classant selon quatre niveaux de risque allant de très élevé à minime. Les dispositifs médicaux intégrant des fonctions alimentées par l’IA/ML seront probablement classés comme à haut risque.

La Loi sur l’IA définit des obligations spécifiques pour les systèmes d’IA à haut risque, dont beaucoup se chevauchent avec les procédures existantes exigées par le Règlement sur les Dispositifs Médicaux (MDR) et le Règlement sur les Dispositifs Médicaux de Diagnostic In Vitro (IVDR). Ces obligations portent principalement sur l’évaluation et la mitigation des risques, la conformité, la tenue de dossiers, la cybersécurité et d’autres bonnes pratiques.

États-Unis

Les États-Unis n’ont actuellement aucune loi spécifique à l’IA et la Food and Drug Administration (FDA) n’a pas de cadre réglementaire distinct établi régissant les produits médicaux alimentés par l’IA. Cela signifie que si un produit alimenté par l’IA/ML répond à la définition de « dispositif médical », la FDA le régulera en tant que « Logiciel en tant que Dispositif Médical » (SaMD) selon son cadre réglementaire traditionnel pour les dispositifs médicaux.

Comme la structure réglementaire traditionnelle de la FDA n’est pas conçue pour les technologies adaptatives alimentées par l’IA/ML, elle a adopté une approche flexible pour réglementer afin de faciliter l’innovation tout en équilibrant la s sécurité et l’efficacité. Les considérations clés incluent l’application de bonnes pratiques d’apprentissage automatique (GMLPs) dans le développement, la documentation des modifications, la transparence et le suivi des données de performance en temps réel pour comprendre pleinement l’utilisation du produit et identifier les problèmes dès le début.

La FDA coordonne ses efforts avec Health Canada et l’Agence des Médicaments et des Produits de Santé du Royaume-Uni (MHRA) pour développer des GMLPs harmonisées à l’international qui s’appuient sur un ensemble de principes directeurs convenus. Cet engagement a été réaffirmé en mars 2025 et met en évidence la vision partagée de ces régulateurs d’adapter les processus et les normes qui soutiennent l’innovation tout en garantissant la sécurité des patients dans ce domaine.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...