Accord historique entre l’UE et les États-Unis sur les principes de l’IA dans le développement pharmaceutique

A stylized, interconnected neural network sculpture made of transparent glass vials, each containing a different colored liquid representing various AI algorithms, with a central vial labeled 'AI Principles' glowing softly, symbolizing the harmonious integration of AI in drug development.

Accord historique sur les principes de l’IA dans le développement de médicaments

Les agences de régulation européennes et américaines ont établi de nouveaux principes concernant l’utilisation de l’intelligence artificielle (IA) dans le développement de médicaments. Cet accord vise à réduire les divergences réglementaires entre l’Union européenne et les États-Unis, des marchés majeurs pour l’innovation pharmaceutique.

Objectifs de l’accord

Les associations industrielles saluent cet accord, soulignant qu’il renforce l’harmonisation entre les régions, tout en insistant sur la nécessité de mesures concrètes supplémentaires. Alors que les technologies d’IA deviennent de plus en plus intégrées dans la génération ou l’analyse de preuves en développement pharmaceutique, les régulateurs passent d’une approche de surveillance à l’établissement de garde-fous basés sur des principes, visant à améliorer la responsabilité, l’intégrité et la performance de ces nouvelles technologies.

Principes de base de l’IA

Les nouveaux principes, publiés récemment, représentent une première étape vers une coopération renouvelée entre l’UE et les États-Unis dans le domaine des technologies médicales novatrices. Ils visent à garantir un rôle de leader dans la course mondiale à l’innovation tout en assurant le plus haut niveau de sécurité pour les patients.

Ces principes régissent l’utilisation de l’IA tout au long de son cycle de vie dans le développement de médicaments, de la découverte initiale aux essais cliniques, en passant par la fabrication et la surveillance post-commercialisation. Ils insistent sur une approche centrée sur l’humain et sur la nécessité d’une surveillance adéquate.

Démantèlement de la « boîte noire » de l’IA

Les nouvelles directives visent également à démanteler ce que les experts de l’industrie appellent la « boîte noire » de l’IA, où les utilisateurs et les patients ne comprennent souvent pas le processus qui sous-tend la génération des résultats. L’application de l’IA doit se faire dans des contextes bien définis et être compréhensible. Les entreprises pharmaceutiques sont attendues pour expliquer en termes simples les limites de l’IA et les données sous-jacentes, tout en protégeant la vie privée et les informations sensibles.

Amélioration de la responsabilité

L’accord aborde également le problème majeur de l’utilisation non réglementée de l’IA, connue sous le nom d’« utilisation fantôme ». Les analystes utilisent déjà des modèles de langage à grande échelle pour des tâches quotidiennes, tandis que la direction reste souvent passive. Cela doit être contré par une meilleure supervision. Les équipes cliniques doivent comprendre les outils techniques utilisés par les analystes, et une surveillance continue est requise pour détecter tout changement de données qui pourrait dégrader les performances de l’IA.

Conclusion

Bien que ces principes représentent une bonne base pour réduire le risque d’exigences divergentes entre les régions, ils restent à un niveau élevé. Des mesures concrètes vers une terminologie partagée, des définitions et des concepts communs sont nécessaires. Ces étapes pourraient avoir des implications considérables pour la réglementation mondiale de l’IA dans le développement de médicaments.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...