La sécurité des données liées à l’IA : Le fossé de conformité de 83 % rencontrant les entreprises pharmaceutiques
Le secteur pharmaceutique se trouve à un carrefour dangereux. Alors que les entreprises s’empressent d’exploiter l’intelligence artificielle pour la découverte de médicaments, l’optimisation des essais cliniques et l’efficacité de la fabrication, une nouvelle étude de l’industrie révèle une vérité choquante : seulement 17 % des organisations ont mis en place des contrôles automatisés pour empêcher la fuite de données sensibles via des outils d’IA. Cela signifie que 83 % des entreprises pharmaceutiques, y compris de nombreuses organisations de développement et de fabrication sous contrat, fonctionnent sans les protections techniques de base nécessaires.
Dans cette étude, qui a sondé 461 professionnels de la cybersécurité, de l’informatique, de la gestion des risques et de la conformité à travers divers secteurs, un décalage critique a été mis en lumière entre les croyances des dirigeants pharmaceutiques concernant la sécurité de l’IA et la réalité sur le terrain. La situation est d’autant plus alarmante qu’une seule fuite de structure moléculaire peut anéantir des milliards d’investissements en recherche.
L’état de la sécurité de l’IA dans les secteurs pharmaceutiques : Un constat amer
Les chiffres peignent un tableau inquiétant de la sécurité de l’IA dans le secteur pharmaceutique. Selon l’étude, la grande majorité des organisations s’appuient sur des mesures dangereusement inadéquates pour protéger leurs données contre l’exposition à l’IA. Au sommet de la pyramide de sécurité, seulement 17 % disposent de technologies qui bloquent automatiquement l’accès non autorisé à l’IA et analysent les données sensibles.
Les 83 % restants dépendent d’approches centrées sur l’humain de plus en plus peu fiables. Quarante pour cent s’appuient sur des sessions de formation des employés et des audits périodiques, espérant que le personnel se souvienne et respecte les règles sous pression. Vingt pour cent envoient des e-mails d’avertissement concernant l’utilisation de l’IA sans jamais vérifier la conformité. Dix pour cent se contentent de publier des directives, tandis qu’un 13 % alarmant n’a aucune politique en place.
Ce qui est réellement exposé
La recherche révèle que 27 % des organisations de la vie reconnaissent que plus de 30 % de leurs données traitées par l’IA contiennent des informations sensibles ou privées. Dans un contexte pharmaceutique, cela représente un niveau d’exposition catastrophique, englobant les actifs les plus précieux de l’industrie.
Les employés pharmaceutiques partagent quotidiennement des informations critiques avec des outils d’IA. Les structures moléculaires propriétaires, qui ont nécessité des années de développement, sont téléchargées pour une analyse rapide, tandis que les résultats d’essais cliniques non publiés sont collés dans des chatbots pour obtenir des résumés. Chaque action, bien intentionnée, crée une exposition permanente aux risques.
Le défi de la conformité
Pour les entreprises pharmaceutiques, les implications réglementaires d’une utilisation incontrôlée de l’IA engendrent une tempête parfaite en matière de conformité. L’étude a révélé que seulement 12 % des organisations considèrent les violations de conformité comme l’une de leurs principales préoccupations en matière d’IA. Cette négligence est d’autant plus dangereuse dans un contexte où les réglementations sont en forte augmentation.
Les pratiques actuelles violent simultanément plusieurs exigences réglementaires. Par exemple, la loi HIPAA exige des pistes de vérification complètes pour tous les accès aux informations de santé protégées, mais les entreprises ne peuvent pas suivre ce qui circule dans les outils d’IA non autorisés.
Pourquoi les entreprises pharmaceutiques sont particulièrement vulnérables
Le développement moderne de médicaments implique de vastes partenariats avec des organisations de développement et de fabrication sous contrat, des organisations de recherche contractuelles, des institutions académiques et des fournisseurs technologiques. Chaque partenaire peut introduire de nouveaux outils d’IA et des vulnérabilités de sécurité.
Vers une protection réelle
Pour remédier à ces lacunes, les entreprises doivent immédiatement passer à des contrôles techniques qui empêchent automatiquement l’accès non autorisé à l’IA et l’exposition des données. Les éléments essentiels d’une gouvernance efficace de l’IA dans le secteur pharmaceutique commencent par la classification et le blocage automatiques des données.
Conclusion
Le secteur pharmaceutique fait face à une fenêtre de temps réduite pour aborder les fuites de données liées à l’IA avant que des conséquences catastrophiques n’apparaissent. Avec 83 % des organisations opérant sans protections techniques de base tout en perdant leurs données les plus précieuses, le fossé entre la sécurité perçue et réelle a atteint des niveaux critiques.