Adoption des agents IA : vers un défi sécuritaire croissant

A digital hourglass with silicon sand flowing from a cloud-shaped top into a locked vault at the bottom

Adoption des agents AI en pleine expansion face aux contrôles de sécurité

Une nouvelle recherche révèle que le déploiement d’agents AI autonomes au sein des organisations au Royaume-Uni a explosé au cours de l’année passée, entraînant des gains de productivité ainsi qu’un défi croissant en matière de sécurité.

Selon une étude ayant interrogé 1 000 décideurs britanniques, bien que les entreprises adoptent les agents AI à un rythme remarquable, les cadres de gouvernance destinés à les réguler ne suivent pas le même rythme.

Une augmentation de l’adoption accompagnée de nouveaux risques

La part des organisations britanniques déployant activement des agents AI a presque triplé en l’espace de douze mois, passant de 22 % à 62 %. De plus, 68 % s’attendent à ce que les agents AI soient totalement intégrés dans l’ensemble de leur organisation d’ici les douze prochains mois.

Cependant, à mesure que le déploiement s’accélère, émergent ce que l’on appelle des « agents doubles » : des agents AI introduits dans des environnements professionnels sans supervision formelle en matière de TI ou de sécurité, portant des autorisations excessives, ayant des origines inconnues ou une gouvernance insuffisante. Quatre-vingt-quatre pour cent des dirigeants ont signalé que ces agents non approuvés constituaient un risque de sécurité croissant.

Cette préoccupation n’est pas hypothétique. Quatre-vingt-six pour cent des dirigeants admettent que les agents AI introduisent des défis en matière de sécurité et de conformité que les cadres existants n’étaient jamais conçus pour gérer. Quatre-vingt-cinq pour cent estiment que le déploiement évolue plus rapidement que les approches traditionnelles de surveillance ne peuvent le soutenir, et quatre-vingts pour cent s’inquiètent de la complexité de la gestion des agents à grande échelle.

Malgré ces préoccupations, quatre-vingt-sept pour cent des dirigeants se disent confiants dans la capacité de leur organisation à prévenir la création ou l’utilisation d’agents AI non autorisés.

Comparaison avec le phénomène du shadow IT

Ce contraste a été comparé à la dernière grande montée du shadow IT, où les employés adoptaient des outils non approuvés plus rapidement que les équipes de sécurité ne pouvaient les détecter, créant des angles morts qui ont pris des années à résoudre. L’inquiétude est que les agents AI suivent le même schéma, mais à une vitesse accrue.

Le problème ne se limite pas au Royaume-Uni. Un rapport plus large sur la sécurité AI a révélé que plus de 80 % des entreprises du Fortune 500 utilisent déjà des agents AI, soulignant à quel point les systèmes autonomes deviennent rapidement une caractéristique des opérations des entreprises à l’échelle mondiale.

Que doivent faire les entreprises ?

En plus de souligner les préoccupations de sécurité engendrées par la croissance des agents, des conseils sont offerts aux organisations sur la manière d’aborder ce défi croissant.

Le message principal est que les agents AI doivent être traités avec le même sérieux que toute autre identité dans un environnement professionnel, qu’il s’agisse d’identités humaines ou machines. En appliquant des principes de zero trust aux agents AI, les entreprises peuvent gérer les risques tout en continuant à innover en toute confiance.

Appliquer des principes de zero trust aux agents AI signifie accorder un accès minimal, définir des autorisations claires et garantir une auditabilité complète de l’activité des agents. L’objectif est de donner aux équipes de sécurité la visibilité nécessaire pour comprendre quels agents existent, ce qu’ils peuvent accéder et ce qu’ils font.

Les équipes de sécurité elles-mêmes ont identifié trois priorités immédiates à mesure que l’adoption s’accélère : maintenir la visibilité sur où les agents opèrent, les intégrer de manière sécurisée dans les systèmes existants, et répondre aux exigences de conformité et d’audit à mesure que l’activité autonome s’étend. Chacune de ces priorités souligne le même défi sous-jacent : les organisations doivent intégrer les agents AI dans leurs cadres de gouvernance avant que l’écart ne devienne ingérable.

Maintenir l’innovation en phase avec la sécurité

Cette recherche arrive à un moment où le cas commercial pour les agents AI se renforce et où l’adoption suit son cours.

Cependant, l’infrastructure de sécurité pour les soutenir peine encore à suivre. Le risque est que la rapidité de l’adoption, sans investissement équivalent dans la gouvernance, crée des angles morts difficiles et coûteux à combler a posteriori.

Ce que cette recherche reflète finalement, c’est un schéma plus large qui ne fera que s’intensifier. À mesure que l’AI devient plus capable et plus intégrée dans le fonctionnement des entreprises, les défis de sécurité qu’elle introduit croîtront également.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...