Pyramide des risques : évaluer la conformité des dispositifs médicaux à l’IA

A blueprint

DIA Europe : La pyramide des risques pour évaluer la conformité des dispositifs selon la Loi sur l’IA

Les fabricants de dispositifs médicaux doivent utiliser une pyramide des risques pour déterminer si leurs produits sont classés comme à haut risque et nécessitent des évaluations de conformité par des organismes notifiés en vertu de la Loi sur l’Intelligence Artificielle (IA) de l’UE.

Contexte de la Loi sur l’IA

La Loi sur l’IA est entrée en vigueur le 1er août 2024 et s’appliquera aux produits à hauts risques à partir du 2 août 2026, incluant les dispositifs médicaux classés dans la catégorie IIa ou supérieure. Une application plus large est prévue pour le 2 août 2027, avec une mise en œuvre complète attendue d’ici le 31 décembre 2030.

Système basé sur les risques

La Loi sur l’IA introduit un système de classification des applications IA basé sur les risques, allant des dispositifs à risque minimal à la base de la pyramide jusqu’aux systèmes à risque inacceptable au sommet. Les systèmes utilisant une manipulation ou une tromperie nuisible par IA, ainsi que ceux exploitant le scoring social, sont considérés comme un risque inacceptable et sont prohibés.

Classification des dispositifs médicaux

Les dispositifs médicaux sont classés comme à haut risque s’ils utilisent un logiciel intégré d’IA pour diagnostiquer ou détecter des anomalies, nécessitant une évaluation par un organisme notifié. Les dispositifs à risque limité ne diagnostiquent pas ou ne détectent pas d’anomalies, mais sont soumis à des obligations de transparence spécifiques selon la Loi sur l’IA. À la base de la pyramide, les dispositifs à risque minimal ne sont pas réglementés et ne sont pas mentionnés explicitement dans la législation sur l’IA.

Exigences pour la conformité

Les fabricants doivent respecter des exigences d’étiquetage, incluant l’identification sur l’emballage, comme le nom du fabricant, le nom commercial enregistré, les marques, l’adresse de contact et le marquage CE. De plus, des équipes de gestion des risques doivent être mises en place pour évaluer le système IA, et une documentation technique doit être conservée, incluant des journaux de suivi pendant toute la durée de vie du système IA.

Préparation pour l’avenir

Il est essentiel pour les fabricants de se préparer à une nouvelle vague d’applications utilisant des outils IA avancés dans les dispositifs médicaux. Ces dispositifs promettent un avenir axé sur l’utilisation de technologies non invasives pour diagnostiquer des maladies.

Un exemple pertinent est le logiciel LiverMultiScan, qui a reçu une approbation FDA et un marquage CE de l’UE. Ce test non invasif permet de détecter les maladies du foie, remplaçant des biopsies souvent inexactes. Grâce à des algorithmes intégrés, la technologie peut déterminer si l’ensemble du foie ou seulement une partie est malade via une imagerie par résonance magnétique (IRM). Les résultats sont envoyés à un laboratoire utilisant un algorithme propriétaire, fournissant un résumé d’images détaillant l’état de santé du foie.

La mise en œuvre des réglementations sur l’IA est principalement un exercice administratif visant à organiser la documentation nécessaire.

Articles

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Révolutionner la gouvernance de l’IA dans la gestion des risques

L'intelligence artificielle et les technologies de l'IA sont essentielles au succès de la fonction de risque. Les directeurs des risques peuvent déployer l'IA pour répondre à la conformité et naviguer...

Le Sénat met fin au moratoire sur les lois sur l’IA

Le Sénat américain a voté à une écrasante majorité de 99 contre 1 pour supprimer une disposition qui aurait bloqué les États de réglementer l'intelligence artificielle pendant la prochaine décennie...

L’écart de conformité de 83 % des entreprises pharmaceutiques face à la sécurité des données IA

L'industrie pharmaceutique est confrontée à une menace sérieuse en matière de sécurité des données liées à l'intelligence artificielle, avec seulement 17 % des entreprises ayant mis en place des...

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Réveil Cybernétique : L’Impact de l’IA sur la Sécurité

Les organisations doivent prendre en compte que l'IA transforme rapidement le paysage des menaces en cybersécurité, tout en offrant des opportunités pour améliorer la détection et la réponse...

Vers une législation éclairée sur l’IA en Thaïlande

M. Sak déclare que la législation à venir vise à protéger les utilisateurs des risques potentiels liés à l'IA et à supprimer les obstacles juridiques que les lois existantes ne peuvent pas traiter. La...

Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

Le Texas a franchi une étape importante dans la réglementation de l'intelligence artificielle (IA) avec l'adoption de la Loi sur la gouvernance responsable de l'IA (TRAIGA), qui établit un cadre pour...

Révolutionner la gouvernance de l’IA pour un avenir responsable

Riskonnect a annoncé le lancement de sa nouvelle solution de gouvernance de l'IA, permettant aux organisations de gérer les risques et les obligations de conformité des technologies d'IA de manière...