Avancées de l’IA en pharmacie : défis de gouvernance

A futuristic, sleek AI-powered race car with a steering wheel shaped like a regulatory document, driving through a maze of ever-changing legal and ethical signposts.

La pharmacie avance rapidement sur l’IA, mais la gouvernance peine à suivre

L’utilisation de l’IA dans le développement pharmaceutique devient de plus en plus répandue, mais les réglementations sont encore en cours d’élaboration.

Selon les rapports, 71 % des entreprises de divers secteurs utilisent désormais l’IA générative, les sciences de la vie étant parmi les plus rapides à adopter cette technologie. Cependant, seulement 53 % d’entre elles atténuent activement les risques liés à l’IA.

Ce fossé engendre de l’inquiétude, alors que les entreprises pharmaceutiques déploient des systèmes autonomes dans la recherche et le développement (R&D) ainsi que dans la fabrication, tout en construisant simultanément leurs cadres de gouvernance.

Vulnérabilités opérationnelles

Les systèmes d’IA introduisent des risques que les cadres de qualité pharmaceutiques traditionnels n’étaient pas conçus pour aborder. La dérive des modèles se produit souvent lorsque les projections de l’IA deviennent inexactes au fil du temps, à mesure que les données d’entraînement s’écartent des conditions de production initiales. Pour la découverte de médicaments, cela peut signifier que des composés jugés prometteurs sur la base de jeux de données obsolètes ne le sont plus réellement. En fabrication, cela peut entraîner des algorithmes de contrôle qualité qui échouent à détecter des anomalies de processus.

La fuite de données entre les entreprises de recherche contractuelles et les partenaires de fabrication crée une couche supplémentaire d’exposition. Les modèles propriétaires formés sur des données d’essai clinique peuvent, par inadvertance, exposer des informations sur les patients ou des propriétés intellectuelles lorsqu’ils sont partagés au-delà des frontières structurelles. Sans contrôles de provenance stricts, les entreprises pharmaceutiques perdent la visibilité sur l’utilisation de leurs données et sur la conformité des modèles avec les réglementations sur la confidentialité.

Le risque de biais continue également à fausser les résultats. Les examens réglementaires effectués ont identifié des cas où des algorithmes alimentés par l’IA excluaient systématiquement certains groupes démographiques des essais cliniques, compromettant ainsi à la fois la conformité réglementaire et l’efficacité thérapeutique.

Conformité en action

Les cadres réglementaires ont un impact profond sur la manière dont les entreprises pharmaceutiques abordent la gouvernance de l’IA. La mise à jour de l’ICH E6(R3), finalisée début 2025, renforce les exigences pour tous les systèmes informatisés utilisés dans les essais cliniques, y compris l’IA. La section 4.2.2 impose que les métadonnées pertinentes pour l’essai, y compris les pistes d’audit, soient conservées pour permettre la reconstitution du déroulement des événements. La section 3.16.1 exige que toutes les modifications de données soient attribuables, enregistrées et reconstructibles.

Le document de réflexion de l’EMA sur l’utilisation de l’intelligence artificielle dans le cycle de vie des produits médicaux renforce à nouveau ces attentes pour les systèmes d’apprentissage automatique. Il souligne que les demandeurs et les titulaires d’autorisation de mise sur le marché doivent garantir que les algorithmes, les modèles, les ensembles de données et les pipelines de traitement des données soient documentés de manière transparente et auditable.

Ce changement de position a accéléré les changements structurels au sein des organisations. Un rapport indique que 13 % des entreprises ont créé des rôles dédiés à la gouvernance ou aux risques liés à l’IA, reconnaissant que l’expertise réglementaire doit coexister avec les capacités techniques.

Préparation pour l’avenir

La prochaine vague de risques opérationnels est claire. Une analyse met en évidence que, alors que l’IA agentique devient intégrée dans les flux de travail, les entreprises doivent établir des cadres de gouvernance solides avec une responsabilité claire, des garde-fous pour prévenir les conséquences imprévues et des audits réguliers pour assurer la conformité.

Les systèmes d’IA agentique peuvent exécuter des flux de travail en plusieurs étapes dans la R&D et la fabrication sans supervision humaine. Cette autonomie accélère la découverte et optimise la production, mais elle crée également des vulnérabilités. Il est donc essentiel que chaque décision agentique soit enregistrée, chaque source de données validée et chaque action auditable.

Les entreprises pharmaceutiques qui développent ces capacités dès maintenant seront prêtes pour la prochaine décennie. Celles qui retardent seront confrontées à des remédiations coûteuses lorsque le contrôle réglementaire s’intensifiera.

La responsabilité des dirigeants reste le facteur différenciant. La sécurité de l’IA n’est pas un problème pouvant être résolu uniquement par les équipes d’ingénierie. Elle nécessite des exécutifs qui comprennent que la confiance, la validation et la transparence sont les fondements de la rapidité opérationnelle.

Protéger les patients, les données et l’innovation ne sont plus des objectifs séparés. Ce sont des priorités interdépendantes qui définissent la manière dont les entreprises pharmaceutiques opèrent dans l’économie de l’intelligence.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...