Accord historique sur les principes de l’IA dans le développement de médicaments
Les agences de régulation européennes et américaines ont établi de nouveaux principes concernant l’utilisation de l’intelligence artificielle (IA) dans le développement de médicaments. Cet accord vise à réduire les divergences réglementaires entre l’Union européenne et les États-Unis, des marchés majeurs pour l’innovation pharmaceutique.
Objectifs de l’accord
Les associations industrielles saluent cet accord, soulignant qu’il renforce l’harmonisation entre les régions, tout en insistant sur la nécessité de mesures concrètes supplémentaires. Alors que les technologies d’IA deviennent de plus en plus intégrées dans la génération ou l’analyse de preuves en développement pharmaceutique, les régulateurs passent d’une approche de surveillance à l’établissement de garde-fous basés sur des principes, visant à améliorer la responsabilité, l’intégrité et la performance de ces nouvelles technologies.
Principes de base de l’IA
Les nouveaux principes, publiés récemment, représentent une première étape vers une coopération renouvelée entre l’UE et les États-Unis dans le domaine des technologies médicales novatrices. Ils visent à garantir un rôle de leader dans la course mondiale à l’innovation tout en assurant le plus haut niveau de sécurité pour les patients.
Ces principes régissent l’utilisation de l’IA tout au long de son cycle de vie dans le développement de médicaments, de la découverte initiale aux essais cliniques, en passant par la fabrication et la surveillance post-commercialisation. Ils insistent sur une approche centrée sur l’humain et sur la nécessité d’une surveillance adéquate.
Démantèlement de la « boîte noire » de l’IA
Les nouvelles directives visent également à démanteler ce que les experts de l’industrie appellent la « boîte noire » de l’IA, où les utilisateurs et les patients ne comprennent souvent pas le processus qui sous-tend la génération des résultats. L’application de l’IA doit se faire dans des contextes bien définis et être compréhensible. Les entreprises pharmaceutiques sont attendues pour expliquer en termes simples les limites de l’IA et les données sous-jacentes, tout en protégeant la vie privée et les informations sensibles.
Amélioration de la responsabilité
L’accord aborde également le problème majeur de l’utilisation non réglementée de l’IA, connue sous le nom d’« utilisation fantôme ». Les analystes utilisent déjà des modèles de langage à grande échelle pour des tâches quotidiennes, tandis que la direction reste souvent passive. Cela doit être contré par une meilleure supervision. Les équipes cliniques doivent comprendre les outils techniques utilisés par les analystes, et une surveillance continue est requise pour détecter tout changement de données qui pourrait dégrader les performances de l’IA.
Conclusion
Bien que ces principes représentent une bonne base pour réduire le risque d’exigences divergentes entre les régions, ils restent à un niveau élevé. Des mesures concrètes vers une terminologie partagée, des définitions et des concepts communs sont nécessaires. Ces étapes pourraient avoir des implications considérables pour la réglementation mondiale de l’IA dans le développement de médicaments.