Comment les systèmes eTMF habilités par l’IA sont impactés par la loi européenne sur l’IA (Partie 1)
Alors que l’IA s’intègre de plus en plus dans les systèmes eTMF, les organisations du secteur de la recherche clinique entrent dans un nouveau paysage réglementaire complexe façonné par la loi européenne sur l’intelligence artificielle (Loi sur l’IA).
La Loi sur l’IA n’est pas un guide technique ni un cadre de meilleures pratiques volontaires. C’est une réglementation horizontale contraignante qui s’applique à tous les secteurs, y compris les sciences de la vie et la recherche clinique. Son objectif principal est de garantir que les systèmes d’IA mis sur le marché de l’UE soient sûrs, transparents, dignes de confiance et respectent les droits fondamentaux, y compris la protection des données, la non-discrimination et la supervision humaine.
Pour les organisations déjà soumises aux réglementations GCP, GMP, GDPR et aux systèmes de qualité, la Loi sur l’IA introduit une philosophie réglementaire familière, mais l’applique à un nouvel objet de contrôle : les systèmes d’IA eux-mêmes. En essence, la Loi sur l’IA considère l’IA non seulement comme une fonctionnalité logicielle, mais comme une capacité régulée devant être gouvernée tout au long de son cycle de vie.
Ce que la Loi sur l’IA est — et ce qu’elle n’est pas
La Loi sur l’IA établit un cadre réglementaire basé sur le risque pour les systèmes d’IA, ce qui signifie que le niveau de contrôle réglementaire est proportionnel au risque qu’un système d’IA pose pour les individus, la société et les intérêts publics tels que la santé et la sécurité.
Cette approche est conceptuellement alignée avec des cadres déjà connus dans la recherche clinique :
- Surveillance basée sur le risque selon l’ICH-GCP
- Évaluations de criticité dans la gestion des TMF
- Classification des systèmes informatisés selon le GAMP
- Évaluations d’impact selon le GDPR
Cependant, la Loi sur l’IA diffère d’une manière critique : elle réglemente explicitement la prise de décision par l’IA, même lorsque l’IA est utilisée dans des fonctions de soutien plutôt que d’interventions cliniques directes.
La loi :
- définit ce qui qualifie un système d’IA
- classe les systèmes d’IA en catégories de risque
- impose des obligations obligatoires basées sur ce risque
- attribue des responsabilités légales à différents acteurs (fournisseurs, déployeurs, importateurs, distributeurs)
- introduit des mécanismes d’application et des sanctions comparables au GDPR.
Ce que la Loi sur l’IA ne fait pas, c’est interdire l’innovation en matière d’IA. Au contraire, elle crée un environnement réglementaire structuré dans lequel l’IA peut être déployée de manière responsable, particulièrement dans des domaines régulés comme les essais cliniques, où l’intégrité des données, la traçabilité et la protection des patients sont primordiales.
Principes fondamentaux de la Loi sur l’IA et catégorisation des risques de l’IA
Selon l’approche basée sur le risque soutenue par la Loi sur l’IA, les systèmes d’IA sont réglementés en fonction de leur utilisation, des décisions qu’ils soutiennent et des conséquences potentielles de leurs résultats, plutôt que de leur simple existence en tant que logiciel.
Le niveau de contrôle réglementaire dépend donc du contexte, de l’objectif et du degré d’autonomie du système d’IA. Un outil d’IA qui soutient des tâches administratives sans impact sur des décisions régulées sera soumis à des obligations minimales, tandis qu’un système d’IA qui influence la conformité, la supervision de la sécurité ou les droits fondamentaux sera soumis à des exigences beaucoup plus strictes.
Cette approche garantit que les obligations réglementaires sont proportionnelles au potentiel de préjudice qu’un système d’IA pourrait causer. Les utilisations à haut risque sont étroitement régulées pour protéger les droits fondamentaux, la santé et la sécurité, tandis que les applications à faible risque sont autorisées à fonctionner avec moins de contraintes, encourageant ainsi une innovation plus rapide là où l’impact est limité.
La Loi sur l’IA identifie quatre catégories de risque :
- Risque inacceptable : Les systèmes d’IA dont les pratiques sont jugées poser une menace claire pour la santé, la sécurité et les droits fondamentaux sont prohibés.
- Risque élevé : Les systèmes d’IA qui pourraient affecter significativement la santé, la sécurité, les droits fondamentaux ou les résultats juridiques sont autorisés mais soumis à des exigences strictes.
- Risque limité : Les systèmes d’IA qui présentent un potentiel de préjudice limité doivent répondre à des obligations de transparence.
- Risque minimal ou nul : Les systèmes d’IA avec des effets négligeables sur les individus ou la société sont largement non régulés par la Loi sur l’IA, bien que des meilleures pratiques s’appliquent toujours.
L’importance de la Loi sur l’IA pour les eTMF
Oubliez le TMF comme un dépôt passif de documents : d’un point de vue réglementaire, il constitue la principale base de preuves structurées démontrant qu’un essai clinique a été planifié, mené, surveillé et rapporté conformément à l’ICH-GCP, aux exigences réglementaires applicables et aux normes éthiques. Les régulateurs évaluent la conformité en examinant ce qui est documenté dans le TMF.
À l’heure actuelle, la majorité des capacités d’IA dans un système eTMF se concentrent sur la classification et le classement automatisés des documents. Cependant, considérant l’évolution rapide de l’IA, la prochaine génération de systèmes eTMF habilités par l’IA sera capable d’effectuer :
- extraction et peuplement de métadonnées
- détection de documentation manquante, tardive ou incohérente
- évaluation des risques de complétude ou de qualité du TMF
- identification et analyse de motifs
- signaux prédictifs pour la préparation à l’inspection.
Ces fonctions vont au-delà de l’efficacité opérationnelle. Elles influencent des décisions telles que :
- la déclaration de préparation à l’inspection
- la classification d’un site ou d’un pays comme à haut risque
- le déclenchement ou la priorité des actions de supervision
- la détection précoce ou la négligence des lacunes dans la documentation de la sécurité des patients.
Du point de vue réglementaire, cela déplace l’IA dans l’eTMF dans le domaine du soutien à la décision pour des processus critiques de GCP, et c’est pourquoi les régulateurs s’attendent de plus en plus à ce que les organisations démontrent un contrôle, une transparence et une supervision humaine sur les activités de TMF soutenues par l’IA.
Lorsque l’IA influence la structure, la qualité, la complétude, la priorisation ou l’interprétation du contenu du TMF, elle influence directement la manière dont la conformité et la protection des patients sont démontrées. Sous la Loi sur l’IA, la classification à haut risque n’est pas déterminée par le fait qu’un système soit qualifié d' »administratif », de « soutien » ou « d’assistance ». Elle est déterminée par le fait que le système :
- soutienne ou influence des décisions affectant la conformité, la sécurité ou les droits fondamentaux
- soit utilisé dans des processus régulés.
Un eTMF habilité par l’IA devient à haut risque lorsque ses résultats sont utilisés pour prendre ou différer des décisions, y compris :
- la déclaration de préparation à l’inspection
- la priorisation ou la dépriorisation de la supervision
- l’évaluation de la qualité ou des niveaux de risque du TMF
- l’identification (ou le non-identification) des lacunes dans la documentation de la sécurité.
À ce stade, le système d’IA n’agit plus comme un support opérationnel. Il devient un soutien à la décision pour des résultats régulés.
La conclusion est que l’intégration de l’IA dans les systèmes eTMF marque un changement structurel dans la manière dont la conformité des essais cliniques, la supervision et la protection des participants sont démontrées. La Loi sur l’IA n’introduit pas une philosophie réglementaire inconnue pour le secteur des sciences de la vie, mais elle étend des principes bien établis de surveillance basée sur le risque, de responsabilité et de gouvernance du cycle de vie à un nouvel objet de contrôle puissant : le soutien à la décision basé sur l’IA.
Dans les cas d’utilisation où l’IA influence l’évaluation de la qualité du TMF, l’évaluation de la complétude, la préparation à l’inspection ou la priorisation de la supervision, elle répond à tous les critères fonctionnels d’un système d’IA à haut risque selon la Loi sur l’IA.
Cette première partie de l’article établit pourquoi les systèmes eTMF habilités par l’IA relèvent du champ d’application de la Loi sur l’IA et quand ils doivent être considérés comme à haut risque. La question plus pratique est donc inévitable : que doivent faire les organisations à ce sujet ?
Dans la Partie 2, nous passerons de l’interprétation réglementaire à la mise en œuvre opérationnelle. Nous examinerons :
- les exigences de conformité concrètes de la Loi sur l’IA applicables aux IA à haut risque dans les contextes eTMF
- les rôles et responsabilités des principales parties prenantes
- les étapes de mise en œuvre pratiques pour atteindre la conformité avec la Loi sur l’IA.
Comprendre la logique réglementaire est la fondation. La traduire en pratiques conformes et prêtes pour l’inspection est le véritable défi — et le focus de ce qui suit.