Comment la Loi sur l’IA de l’UE pourrait affecter l’innovation en Medtech
La Loi sur l’IA de l’UE, entrée en vigueur le 1er août 2024, introduit des règles spécifiques pour les systèmes d’intelligence artificielle (IA), en particulier ceux qualifiés de « haut risque ».
Les dispositifs, produits et services Medtech, tels que les outils de diagnostic, la robotique chirurgicale et les plans de traitement personnalisés, reposent souvent sur des composants IA qui pourraient être soumis à cette loi, surtout s’ils posent des risques pour la santé, la sécurité ou les droits fondamentaux.
Classification de Haut Risque
Les systèmes d’IA intégrés dans des dispositifs médicaux en tant que composants de sécurité, en particulier ceux utilisés pour le diagnostic, la surveillance et le traitement, sont susceptibles d’être classés comme haut risque. Cette classification s’accompagne d’exigences strictes en matière de sécurité, de transparence et de gestion des risques.
Évaluations de Conformité
Les produits Medtech basés sur l’IA classés comme haut risque doivent subir des évaluations de conformité par des tiers pour garantir leur conformité à la Loi sur l’IA et à d’autres législations pertinentes de l’UE, telles que le Règlement sur les Dispositifs Médicaux (MDR) et le Règlement sur les Dispositifs Médicaux de Diagnostic In Vitro (IVDR).
Transparence
Les systèmes d’IA en Medtech seront soumis à des exigences de transparence obligatoires. Pour les systèmes d’IA classés comme haut risque, cela inclut une documentation claire sur la façon dont le système prend des décisions. Les fournisseurs doivent garantir que les résultats du système sont explicables tant pour les professionnels de santé que pour les patients.
Gestion des Risques
Les entreprises Medtech utilisant des systèmes d’IA haut risque devront établir des systèmes de gestion des risques rigoureux pour identifier et atténuer les risques associés à l’utilisation de l’IA dans le secteur de la santé. Cela comprend la surveillance du système après son déploiement pour prévenir ou minimiser les dommages.
Surveillance Humaine
Les systèmes d’IA classés comme haut risque utilisés dans le secteur de la santé doivent avoir des mécanismes permettant une surveillance humaine afin de s’assurer que les professionnels de santé peuvent auditer et ajuster les décisions cliniques, en particulier celles touchant la santé des patients.
Obligations de Déploiement
La loi impose également des responsabilités aux déployeurs de systèmes d’IA (par exemple, hôpitaux et cliniciens). Cela inclut l’assurance que le système d’IA est utilisé conformément aux instructions, en maintenant une surveillance par des personnes formées et en assurant un suivi.
Toutes les entreprises Medtech utilisant des systèmes d’IA devront garantir un niveau approprié de littératie en IA au sein de l’entreprise. Les autorités de supervision devraient développer des lignes directrices concernant les obligations de la loi qui intègrent et ancrent les droits fondamentaux de l’UE.
Chronologie de Mise en Œuvre
La loi sera mise en œuvre par phases, avec des délais de conformité liés aux catégories de risque. La plupart des obligations ne s’appliqueront pas avant le 2 août 2026, avec une période de grâce pour les technologies existantes jusqu’à ce qu’elles subissent des changements de conception significatifs.
Les entreprises Medtech doivent se préparer à ces changements réglementaires afin d’assurer leur conformité et de continuer à innover dans le domaine des dispositifs médicaux.