Comment la Loi sur l’IA de l’UE Impacte les Fabricants de Dispositifs Médicaux
La Loi sur l’IA de l’UE (Règlement (UE) 2024/1689) représente une législation clé qui façonnera l’avenir de l’IA en Europe, et elle est attendue comme le modèle pour des législations similaires dans d’autres pays ou régions. Cette loi aura un impact significatif sur l’industrie de l’IA et la société, car elle établira de nouvelles normes et règles pour le développement et l’utilisation des systèmes d’IA, tout en créant de nouvelles opportunités et défis pour l’innovation et la compétitivité. La Loi sur l’IA de l’UE tente de réguler l’IA de manière à équilibrer les bénéfices et les risques de cette technologie transformative.
La Loi impactera également d’autres secteurs industriels, comme l’industrie des dispositifs médicaux, pour les dispositifs intégrant de la technologie IA. Les fabricants de dispositifs médicaux devront se conformer à la Loi sur l’IA.
Classification des Systèmes d’IA
Tous les systèmes d’IA sont classés en quatre catégories de risque : inacceptable, élevé, limité et minimal.
- Les systèmes d’IA jugés inacceptables sont interdits sur le marché. Cela inclut, par exemple, le scraping non ciblé d’images faciales sur Internet ou de séquences de vidéosurveillance, la reconnaissance émotionnelle dans les lieux de travail et les établissements éducatifs, le scoring social et la catégorisation biométrique pour inférer des données sensibles, telles que l’orientation sexuelle ou les croyances religieuses.
- Les systèmes d’IA à haut risque ont un impact significatif sur la vie ou les droits des personnes, comme dans les domaines de la santé, de l’éducation, de l’application de la loi ou des services publics. Ceux-ci doivent respecter des exigences strictes, telles que la qualité des données, la transparence, la supervision humaine et l’exactitude. Les systèmes d’IA à haut risque devront subir une évaluation de conformité par un organisme notifié spécifiquement désigné pour les systèmes d’IA avant de pouvoir être commercialisés.
- Les systèmes d’IA à risque limité peuvent poser certains risques aux utilisateurs, comme les chatbots ou la reconnaissance émotionnelle. Ces derniers doivent fournir des informations claires aux utilisateurs et leur permettre de se retirer.
- Les systèmes d’IA à risque minimal, comme les filtres anti-spam ou les jeux vidéo, ne devraient pas poser de risque. Bien qu’ils soient largement exemptés de la réglementation, ils doivent tout de même suivre les principes généraux de sécurité et d’équité.
Les systèmes d’IA intégrés dans un dispositif médical seront classés dans la catégorie à haut risque et nécessiteront une supervision par un organisme notifié, car ils peuvent avoir un impact significatif sur la vie des personnes.
Obligations de Conformité
La Loi sur l’IA de l’UE a été publiée le 12 juillet 2024 et s’appliquera à partir du 2 août 2026. Cependant, certains éléments de la loi deviendront obligatoires dès le 2 août 2025.
Les fournisseurs de systèmes d’IA à haut risque doivent mettre en œuvre un système de gestion de la qualité (SGQ) qui couvre les éléments suivants pendant la durée de vie du système d’IA :
- Gestion des risques pour identifier et atténuer les risques potentiels du système d’IA pour la santé, la sécurité et les droits fondamentaux.
- Gouvernance des données d’apprentissage, de validation et de test.
- Développement et maintenance de la documentation technique.
- Journalisation des données pour garantir que les systèmes d’IA conservent une trace des données.
- Étiquetage fournissant des informations sur le fonctionnement du système d’IA.
- Conception qui assure des niveaux appropriés de précision, de robustesse, de sécurité et de cybersécurité.
- Suivi post-commercialisation, y compris la collecte et le rapport d’incidents.
La mise en œuvre du SGQ sera obligatoire à partir du 2 août 2025, tout comme l’identification des opérateurs économiques.
Conséquences de Non-Conformité
La Loi sur l’IA de l’UE introduit un système de sanctions et de recours pour non-conformité ou violation de la réglementation. Elle permet aux autorités nationales d’imposer des amendes administratives allant jusqu’à 4% du chiffre d’affaires annuel mondial du fournisseur, de l’utilisateur, de l’importateur ou du distributeur, en fonction de la gravité et de la durée de la violation. Elle autorise également le retrait, le rappel ou la modification des systèmes d’IA non conformes.
Conclusion
Bien que les exigences de la Loi sur l’IA semblent très similaires à celles déjà requises pour les dispositifs médicaux, comme avoir un SGQ et le contrôle des opérateurs économiques, la conformité aux réglementations des dispositifs médicaux de l’UE n’est pas suffisante pour répondre aux exigences de la Loi sur l’IA. Les fabricants doivent être conscients de ces exigences et commencer leur parcours de conformité le plus tôt possible pour respecter les différentes échéances de 2025 et 2026.