Adoption des agents AI en pleine expansion face aux contrôles de sécurité
Une nouvelle recherche révèle que le déploiement d’agents AI autonomes au sein des organisations au Royaume-Uni a explosé au cours de l’année passée, entraînant des gains de productivité ainsi qu’un défi croissant en matière de sécurité.
Selon une étude ayant interrogé 1 000 décideurs britanniques, bien que les entreprises adoptent les agents AI à un rythme remarquable, les cadres de gouvernance destinés à les réguler ne suivent pas le même rythme.
Une augmentation de l’adoption accompagnée de nouveaux risques
La part des organisations britanniques déployant activement des agents AI a presque triplé en l’espace de douze mois, passant de 22 % à 62 %. De plus, 68 % s’attendent à ce que les agents AI soient totalement intégrés dans l’ensemble de leur organisation d’ici les douze prochains mois.
Cependant, à mesure que le déploiement s’accélère, émergent ce que l’on appelle des « agents doubles » : des agents AI introduits dans des environnements professionnels sans supervision formelle en matière de TI ou de sécurité, portant des autorisations excessives, ayant des origines inconnues ou une gouvernance insuffisante. Quatre-vingt-quatre pour cent des dirigeants ont signalé que ces agents non approuvés constituaient un risque de sécurité croissant.
Cette préoccupation n’est pas hypothétique. Quatre-vingt-six pour cent des dirigeants admettent que les agents AI introduisent des défis en matière de sécurité et de conformité que les cadres existants n’étaient jamais conçus pour gérer. Quatre-vingt-cinq pour cent estiment que le déploiement évolue plus rapidement que les approches traditionnelles de surveillance ne peuvent le soutenir, et quatre-vingts pour cent s’inquiètent de la complexité de la gestion des agents à grande échelle.
Malgré ces préoccupations, quatre-vingt-sept pour cent des dirigeants se disent confiants dans la capacité de leur organisation à prévenir la création ou l’utilisation d’agents AI non autorisés.
Comparaison avec le phénomène du shadow IT
Ce contraste a été comparé à la dernière grande montée du shadow IT, où les employés adoptaient des outils non approuvés plus rapidement que les équipes de sécurité ne pouvaient les détecter, créant des angles morts qui ont pris des années à résoudre. L’inquiétude est que les agents AI suivent le même schéma, mais à une vitesse accrue.
Le problème ne se limite pas au Royaume-Uni. Un rapport plus large sur la sécurité AI a révélé que plus de 80 % des entreprises du Fortune 500 utilisent déjà des agents AI, soulignant à quel point les systèmes autonomes deviennent rapidement une caractéristique des opérations des entreprises à l’échelle mondiale.
Que doivent faire les entreprises ?
En plus de souligner les préoccupations de sécurité engendrées par la croissance des agents, des conseils sont offerts aux organisations sur la manière d’aborder ce défi croissant.
Le message principal est que les agents AI doivent être traités avec le même sérieux que toute autre identité dans un environnement professionnel, qu’il s’agisse d’identités humaines ou machines. En appliquant des principes de zero trust aux agents AI, les entreprises peuvent gérer les risques tout en continuant à innover en toute confiance.
Appliquer des principes de zero trust aux agents AI signifie accorder un accès minimal, définir des autorisations claires et garantir une auditabilité complète de l’activité des agents. L’objectif est de donner aux équipes de sécurité la visibilité nécessaire pour comprendre quels agents existent, ce qu’ils peuvent accéder et ce qu’ils font.
Les équipes de sécurité elles-mêmes ont identifié trois priorités immédiates à mesure que l’adoption s’accélère : maintenir la visibilité sur où les agents opèrent, les intégrer de manière sécurisée dans les systèmes existants, et répondre aux exigences de conformité et d’audit à mesure que l’activité autonome s’étend. Chacune de ces priorités souligne le même défi sous-jacent : les organisations doivent intégrer les agents AI dans leurs cadres de gouvernance avant que l’écart ne devienne ingérable.
Maintenir l’innovation en phase avec la sécurité
Cette recherche arrive à un moment où le cas commercial pour les agents AI se renforce et où l’adoption suit son cours.
Cependant, l’infrastructure de sécurité pour les soutenir peine encore à suivre. Le risque est que la rapidité de l’adoption, sans investissement équivalent dans la gouvernance, crée des angles morts difficiles et coûteux à combler a posteriori.
Ce que cette recherche reflète finalement, c’est un schéma plus large qui ne fera que s’intensifier. À mesure que l’AI devient plus capable et plus intégrée dans le fonctionnement des entreprises, les défis de sécurité qu’elle introduit croîtront également.