Pyramide des risques : évaluer la conformité des dispositifs médicaux à l’IA

A blueprint

DIA Europe : La pyramide des risques pour évaluer la conformité des dispositifs selon la Loi sur l’IA

Les fabricants de dispositifs médicaux doivent utiliser une pyramide des risques pour déterminer si leurs produits sont classés comme à haut risque et nécessitent des évaluations de conformité par des organismes notifiés en vertu de la Loi sur l’Intelligence Artificielle (IA) de l’UE.

Contexte de la Loi sur l’IA

La Loi sur l’IA est entrée en vigueur le 1er août 2024 et s’appliquera aux produits à hauts risques à partir du 2 août 2026, incluant les dispositifs médicaux classés dans la catégorie IIa ou supérieure. Une application plus large est prévue pour le 2 août 2027, avec une mise en œuvre complète attendue d’ici le 31 décembre 2030.

Système basé sur les risques

La Loi sur l’IA introduit un système de classification des applications IA basé sur les risques, allant des dispositifs à risque minimal à la base de la pyramide jusqu’aux systèmes à risque inacceptable au sommet. Les systèmes utilisant une manipulation ou une tromperie nuisible par IA, ainsi que ceux exploitant le scoring social, sont considérés comme un risque inacceptable et sont prohibés.

Classification des dispositifs médicaux

Les dispositifs médicaux sont classés comme à haut risque s’ils utilisent un logiciel intégré d’IA pour diagnostiquer ou détecter des anomalies, nécessitant une évaluation par un organisme notifié. Les dispositifs à risque limité ne diagnostiquent pas ou ne détectent pas d’anomalies, mais sont soumis à des obligations de transparence spécifiques selon la Loi sur l’IA. À la base de la pyramide, les dispositifs à risque minimal ne sont pas réglementés et ne sont pas mentionnés explicitement dans la législation sur l’IA.

Exigences pour la conformité

Les fabricants doivent respecter des exigences d’étiquetage, incluant l’identification sur l’emballage, comme le nom du fabricant, le nom commercial enregistré, les marques, l’adresse de contact et le marquage CE. De plus, des équipes de gestion des risques doivent être mises en place pour évaluer le système IA, et une documentation technique doit être conservée, incluant des journaux de suivi pendant toute la durée de vie du système IA.

Préparation pour l’avenir

Il est essentiel pour les fabricants de se préparer à une nouvelle vague d’applications utilisant des outils IA avancés dans les dispositifs médicaux. Ces dispositifs promettent un avenir axé sur l’utilisation de technologies non invasives pour diagnostiquer des maladies.

Un exemple pertinent est le logiciel LiverMultiScan, qui a reçu une approbation FDA et un marquage CE de l’UE. Ce test non invasif permet de détecter les maladies du foie, remplaçant des biopsies souvent inexactes. Grâce à des algorithmes intégrés, la technologie peut déterminer si l’ensemble du foie ou seulement une partie est malade via une imagerie par résonance magnétique (IRM). Les résultats sont envoyés à un laboratoire utilisant un algorithme propriétaire, fournissant un résumé d’images détaillant l’état de santé du foie.

La mise en œuvre des réglementations sur l’IA est principalement un exercice administratif visant à organiser la documentation nécessaire.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...