Comment opérationnaliser les systèmes eTMF alimentés par l’IA sous la loi européenne sur l’IA (Partie 2)
Dans la première partie de cette série sur les systèmes eTMF alimentés par l’IA, nous avons exploré comment la loi européenne sur l’IA redéfinit le traitement réglementaire de ces systèmes. Nous avons établi que la loi ne concerne pas l’IA en tant que caractéristique technique mais en tant que capacité réglementée, notamment lorsqu’elle influence la manière dont la conformité GCP, la surveillance et la protection des patients sont démontrées à travers le TMF.
En examinant la structure basée sur les risques de la loi européenne sur l’IA et le rôle réglementaire du TMF comme principale preuve de la conduite d’essai, nous avons montré pourquoi certains cas d’utilisation de l’IA au sein des systèmes eTMF — tels que l’évaluation des risques de qualité du TMF, l’évaluation de la préparation à l’inspection et la priorisation de la surveillance — répondent aux critères des systèmes d’IA à haut risque, même en l’absence de préjudice direct aux patients.
Pourquoi les systèmes eTMF alimentés par l’IA sont importants sous la loi européenne sur l’IA
Selon la loi européenne sur l’IA, cette fonctionnalité d’IA est considérée comme à haut risque, car elle :
- soutient des décisions affectant la conformité réglementaire;
- influence des preuves liées à la santé et à la sécurité;
- opère dans un contexte de recherche clinique et de santé réglementé.
La loi exige :
- une gestion des risques documentée pour les scénarios de mauvaise classification;
- une transparence concernant les limitations de l’IA;
- des mécanismes de surveillance humaine pour détecter et annuler les erreurs;
- un suivi continu des performances de l’IA.
L’échec dans ce scénario n’est pas seulement un problème de TMF — il devient un échec de la gouvernance de l’IA.
L’IA dans l’eTMF n’interagit pas directement avec les patients, mais gouverne la chaîne de preuves réglementaires à travers laquelle la sécurité des patients est démontrée, auditée et appliquée. Dans les systèmes réglementés, le contrôle des preuves est le contrôle de la conformité.
Exigences de conformité selon la loi européenne sur l’IA (systèmes à haut risque)
La loi européenne sur l’IA établit un large éventail d’obligations réglementaires pour les systèmes d’IA à haut risque. Ce qui suit n’est pas une liste de contrôle à compléter une fois, mais un cadre de gouvernance continu qui doit être intégré au système de qualité et aux pratiques opérationnelles d’une organisation :
Système de gestion des risques
Les organisations doivent établir et documenter un système de gestion des risques basé sur un cycle de vie continu pour l’IA à haut risque. Cela implique d’identifier les risques prévisibles tels que :
- mauvaise classification des documents;
- évaluations d’exhaustivité incorrectes;
- biais dans l’évaluation des risques ou la priorisation;
- dépendance excessive aux tableaux de bord générés par l’IA.
La gestion des risques ne s’arrête pas au lancement. Le comportement de l’IA doit être surveillé dans le temps, avec des processus définis pour détecter les dérives de performance, les risques émergents et les conséquences non intentionnelles.
Documentation technique et tenue de dossiers
Les systèmes d’IA à haut risque doivent être soutenus par une documentation technique complète et structurée qui permet aux régulateurs, aux auditeurs et aux équipes de qualité internes de comprendre comment le système d’IA a été conçu, entraîné, validé et déployé.
Transparence et explicabilité
La transparence est un élément clé de la loi européenne sur l’IA, en particulier pour les systèmes à haut risque. Les organisations doivent veiller à ce que les résultats de l’IA soient compréhensibles par des professionnels formés.
Surveillance humaine
Les systèmes d’IA à haut risque doivent toujours fonctionner sous une surveillance humaine significative. L’IA doit soutenir la prise de décision humaine, et non la remplacer.
Gouvernance des données
Les systèmes d’IA ne sont fiables que si les données sur lesquelles ils sont formés et opérés sont de haute qualité. La loi européenne sur l’IA met donc l’accent sur la gouvernance des données.
Robustesse, précision et cybersécurité
La loi européenne sur l’IA exige que les organisations démontrent que les systèmes d’IA à haut risque sont robustes, précis et sécurisés tout au long de leur cycle de vie.
Évaluation de conformité
Enfin, les systèmes d’IA à haut risque sont soumis à des exigences d’évaluation de conformité avant d’être mis sur le marché ou mis en service.
Qui la loi européenne sur l’IA concerne-t-elle dans l’écosystème eTMF
La loi européenne sur l’IA s’applique à plusieurs acteurs de la chaîne de valeur eTMF, pas seulement aux fournisseurs de logiciels.
Étapes de mise en œuvre pour les sponsors, les CRO et les fournisseurs
Pour atteindre la conformité, une approche systématique à l’échelle de l’entreprise est nécessaire. Les étapes incluent :
- Inventaire et catégorisation des risques;
- Établissement d’un cadre de gouvernance des risques liés à l’IA;
- Gouvernance des données et validation des modèles;
- Préparation de la documentation technique;
- Mécanismes de surveillance humaine;
- Transparence et explicabilité;
- Évaluation de conformité et certification;
- Suivi et amélioration continue.
Conclusion
La loi européenne sur l’IA représente un cadre réglementaire transformateur qui élève la gouvernance des systèmes d’IA au même niveau de rigueur que celui historiquement observé dans les réglementations cliniques, médicales et de protection des données.