Nouvelles frontières : comment l’IA transforme l’industrie des sciences de la vie – préoccupations liées aux patients, au commercial et à la réglementation
Bien que l’implémentation de l’IA progresse rapidement, des obstacles à une adoption plus profonde subsistent. Ces points de pression sont cohérents dans différents sous-secteurs : protection des données sensibles ; intégration des outils avec des systèmes anciens ; clarification des risques juridiques et de propriété intellectuelle ; et transformation des politiques de gouvernance en pratiques concrètes.
Défis pratiques
La sécurité des données est en tête de liste des défis pratiques, mentionnée par 55 %. Les flux de travail de l’IA touchent souvent des informations très sensibles, telles que les dossiers des patients, les données de sécurité, les paramètres de fabrication et la stratégie commerciale. Les erreurs peuvent déclencher un examen réglementaire, une responsabilité légale et des dommages à la réputation.
Les problèmes de sécurité sont compliqués par la manière dont les systèmes d’IA agrègent des données provenant de nombreuses sources, les déplacent entre équipes et frontières, et parfois introduisent des plateformes tierces dans le mélange. Certaines entreprises choisissent de limiter le volume de données sensibles dès le départ, en restreignant le nombre de systèmes qu’un modèle touche, en ne tirant que les champs nécessaires et en masquant les données pour les expérimentations.
Outre la sécurité, d’autres défis incluent des coûts élevés (46 %), des problèmes d’intégration de systèmes anciens (39 %), des problèmes d’évolutivité (38 %) et des lacunes en matière de compétences (38 %). L’intégration est problématique car de nombreux outils d’IA ne sont pas compatibles avec les infrastructures obsolètes, ce qui peut retarder l’intégration même lorsque le financement est disponible.
Préoccupations juridiques et de propriété intellectuelle
Les préoccupations juridiques se concentrent sur la confidentialité des patients et la protection des données (42 %) ainsi que sur les risques contractuels et de licence (42 %). Les entreprises de santé animale citent davantage le risque de licence (60 %), tandis que les entreprises de dispositifs médicaux soulignent souvent des problèmes de juridiction transfrontalière (40 %) et la complexité des licences (44 %).
Les préoccupations en matière de propriété intellectuelle sont également un domaine flou. Bien que 31 % des répondants soient très préoccupés par les violations potentielles de la propriété intellectuelle liées à l’utilisation de l’IA, 60 % estiment que les protections actuelles pour les résultats assistés par l’IA sont faibles. L’incertitude quant à la propriété des conceptions influencées par des modèles d’IA et à la capacité des résultats à répondre aux seuils de brevetabilité ou d’attribution est un thème récurrent.
Gouvernance, formation et supervision
De nombreuses entreprises prennent des mesures pour améliorer la supervision. Une majorité solide (63 %) dispose désormais de programmes de formation formels sur l’IA. Ces exigences de formation sont devenues non négociables, en particulier pour celles opérant dans des marchés réglementés.
Les entreprises de sciences de la vie doivent formaliser les programmes de formation, conserver des enregistrements de participation et mettre à jour les matériaux en fonction des changements de système ou des mises à jour réglementaires.
Conclusion
Il existe un sentiment général que les cadres juridiques tardent à rattraper l’évolution de l’IA. Deux tiers des répondants estiment que le manque de certitude juridique constitue un obstacle à l’adoption. Les entreprises doivent construire des processus flexibles, transparents et fondés sur une documentation claire, même lorsque les règles demeurent floues.