AI en tant que dispositif médical – Quelles sont les considérations réglementaires ?

L’intelligence artificielle (IA) révolutionne actuellement l’industrie de la santé en introduisant des solutions innovantes dans le domaine des diagnostics, du traitement et des soins aux patients.

Cependant, l’intégration rapide de l’IA dans les dispositifs médicaux présente des défis réglementaires significatifs.

En Europe, la Loi sur l’IA de l’UE 2024/1689 et la Feuille de route britannique sur les dispositifs médicaux sont des cadres clés qui façonnent l’avenir de l’IA dans le secteur de la santé.

De plus, la norme IEC 62304 – « Logiciel de dispositifs médicaux – processus du cycle de vie du logiciel » joue un rôle crucial dans l’assurance de la sécurité et de la fiabilité des logiciels utilisés dans les dispositifs médicaux.

Cet article explore comment ces cadres se croisent et quelles en sont les implications pour le développement et la régulation future des dispositifs médicaux alimentés par l’IA.

La Loi sur l’IA de l’UE et les dispositifs médicaux

La Loi sur l’IA est un cadre légal sur l’intelligence artificielle créé pour le développement, le déploiement et l’utilisation de l’IA au sein de l’Union Européenne (UE). Elle vise à promouvoir le développement et l’innovation d’une IA fiable et sécurisée, tout en garantissant la protection des droits fondamentaux.

La Loi sur l’IA encourage l’utilisation de sables de régulation, permettant un environnement contrôlé pour le développement, la validation et les tests dans des conditions réelles.

À qui s’applique la Loi sur l’IA ?

La Loi sur l’IA s’applique aux fournisseurs, déployeurs et opérateurs économiques de l’IA au sein de l’UE. Elle ne s’applique pas aux marchés britannique ou américain. Il est essentiel de vérifier quelles législations spécifiques sur l’IA sont applicables à chaque région lors de la planification réglementaire.

Que signifie cela pour les dispositifs médicaux alimentés par l’IA ?

La définition de l’IA, selon l’Article 3 de la Loi, est la suivante :

“Le système d’IA” désigne un système basé sur des machines conçu pour fonctionner avec divers niveaux d’autonomie et pouvant faire preuve d’adaptabilité après son déploiement, et qui, pour des objectifs explicites ou implicites, infère, à partir des entrées qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels.

Tous les dispositifs d’IA sont classés en fonction de leur niveau de risque :

  • Risque inacceptable : Interdit. Exemples : systèmes de notation sociale et IA manipulatrice.
  • IA à haut risque : Le plus réglementé. Exemples : biométrie, infrastructures critiques et dispositifs médicaux.
  • IA à risque limité : Soumise à des obligations de transparence allégées. Exemples : chatbots et deepfakes.
  • Risque minimal : Non réglementé. Exemples : jeux vidéo alimentés par l’IA et filtres anti-spam.

La Loi sur l’IA est une législation horizontale, ce qui signifie qu’elle sera utilisée en complément du Règlement sur les dispositifs médicaux de l’UE (MDR) 2017/745, et les deux règlements devront être pris en compte pour les dispositifs médicaux contenant une fonction d’IA.

Quid de l’IA à usage général ?

L’IA à usage général (GPAI) désigne un système d’IA basé sur un modèle d’IA à usage général capable de servir à divers usages, tant pour une utilisation directe que pour une intégration dans d’autres systèmes d’IA.

Le premier Code de pratique sur l’IA à usage général détaillera les règles de la Loi sur l’IA pour les fournisseurs de modèles d’IA à usage général.

Programme de changement du Royaume-Uni sur les logiciels et l’IA en tant que dispositif médical – Feuille de route

La Feuille de route britannique sur les dispositifs médicaux décrit la stratégie du gouvernement pour favoriser l’innovation tout en garantissant la sécurité des patients. Les éléments clés de la feuille de route incluent :

  1. Sables de régulation : Le Royaume-Uni prévoit d’établir des sables de régulation pour permettre aux développeurs de tester des dispositifs médicaux basés sur l’IA dans un environnement contrôlé.
  2. Innovation inclusive : La MHRA reconnaît que les logiciels en tant que dispositifs médicaux (SaMD) et l’IA en tant que dispositifs médicaux (AIaMD) doivent être efficaces pour toutes les populations.
  3. Approche réglementaire adaptative : Le Royaume-Uni vise à créer un cadre réglementaire flexible pouvant s’adapter à l’évolution rapide des avancées en matière d’IA.
  4. Collaboration avec l’industrie : Le gouvernement britannique collabore avec les parties prenantes de l’industrie pour développer des directives et des normes pour l’IA dans les dispositifs médicaux.

IEC 62304 et son rôle dans les dispositifs médicaux basés sur l’IA

La norme IEC 62304, intitulée “Logiciel de dispositif médical – processus du cycle de vie du logiciel”, est un cadre critique pour garantir la sécurité et la fiabilité des logiciels dans les dispositifs médicaux.

Elle s’applique à tous les logiciels utilisés dans les dispositifs médicaux, y compris les systèmes alimentés par l’IA. Les aspects clés de l’IEC 62304 incluent :

  • Classification de la sécurité du logiciel
  • Processus de cycle de vie
  • Gestion des risques

Pour les dispositifs médicaux basés sur l’IA, l’IEC 62304 offre une base pour garantir que les composants logiciels sont sûrs, fiables et conformes aux exigences réglementaires.

Conclusion

Il existe une opportunité et une responsabilité de façonner l’avenir de l’IA dans les dispositifs médicaux. En priorisant les pratiques éthiques, la collaboration, l’innovation et un accent sur la sécurité des patients, nous pouvons garantir que les technologies d’IA non seulement avancent les soins de santé, mais gagnent également la confiance de ceux qui en dépendent.

Ne considérons pas ces réglementations comme une simple formalité, mais utilisons-les comme une base pour construire un avenir où les dispositifs médicaux alimentés par l’IA sont synonymes de sécurité, d’innovation et d’excellence.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...