Principes directeurs pour l’IA dans le développement de médicaments
Le 14 janvier 2026, la Food and Drug Administration (FDA) des États-Unis et l’Agence européenne des médicaments (EMA) ont conjointement publié les « Principes directeurs de la bonne pratique de l’IA dans le développement de médicaments », un ensemble de 10 principes de haut niveau destinés à orienter l’utilisation sûre et responsable de l’IA tout au long du cycle de vie des produits.
Importance des principes directeurs
Bien qu’il ne s’agisse pas de directives formelles pour l’industrie, ce document offre des perspectives importantes sur la manière dont la FDA et l’EMA envisagent le déploiement de l’IA lors du développement de médicaments et de produits biologiques. Cela signale également des futures orientations réglementaires de la part de ces deux organismes.
Principes clés
Les agences ont publié ces principes concernant les systèmes d’IA utilisés pour générer ou analyser des preuves durant les phases non cliniques, cliniques, post-commercialisation et de fabrication pour les médicaments et les produits biologiques. Les principes servent de base pour de futures directives, normes et attentes réglementaires harmonisées de la part des régulateurs internationaux et d’autres organismes collaboratifs.
Les régulateurs soulignent que l’IA peut accélérer l’innovation, réduire le temps de mise sur le marché, renforcer la pharmacovigilance et diminuer la dépendance aux tests sur animaux, tout en maintenant les normes existantes de qualité, de sécurité et d’efficacité. Cependant, pour tirer parti de ces avantages, l’utilisation de l’IA lors du développement de médicaments et de produits biologiques doit suivre les 10 principes. Parmi les idées clés figurent : (1) conception éthique centrée sur l’humain ; (2) développement, déploiement et évaluations de performance basés sur les risques ; (3) gouvernance des données, gestion documentaire et cybersécurité ; et (4) qualité des données et gestion du cycle de vie.
Implications pour l’industrie réglementée
Ces principes esquissent effectivement une liste de vérification de gouvernance que les régulateurs s’attendent à ce que les développeurs suivent, mais ils ne fournissent pas d’instructions concrètes et applicables pour démontrer leur conformité. Cela laisse aux développeurs le soin d’interpréter comment appliquer ces concepts larges en attendant des recommandations plus détaillées des agences.
Dans ce contexte, les entreprises devraient développer et réévaluer leurs cadres de gouvernance de l’IA en se concentrant sur des étapes tangibles, notamment : (1) établir un organe de gouvernance formel et interfonctionnel ; (2) mettre en œuvre une approche basée sur les risques pour catégoriser les outils d’IA et déterminer les niveaux de validation appropriés ; (3) garantir une documentation robuste tout au long du cycle de vie de l’IA (par exemple, provenance des données, sélection de modèles et rapports de validation) ; et (4) engager les régulateurs tôt grâce à des réunions de pré-soumission pour s’aligner sur les attentes concernant les systèmes d’IA novateurs. De plus, les sponsors qui s’engagent proactivement avec les autorités lors de réunions de pré-soumission concernant les attentes et l’alignement, ou pour ceux déjà en usage, la réévaluation de leurs cadres de gouvernance de l’IA actuels avec ces principes, seront mieux positionnés dans les interactions réglementaires.