Les entreprises doivent prioriser la gouvernance dans le contexte de l’essor de l’IA agentique
Les entreprises doivent considérer les agents d’IA comme des identités numériques formelles alors que 2026 se prépare à être l’année d’une main-d’œuvre agentique. Cela survient au milieu des inquiétudes que la plupart des entreprises ne sont pas prêtes face aux risques de sécurité et de gouvernance associés à cette technologie.
État des lieux de l’IA dans les entreprises
La majorité des organisations, soit 91 %, utilisent déjà des agents d’IA, mais seulement 10 % estiment avoir une stratégie de gouvernance efficace à leur égard. De plus, une recherche sur la résilience en matière de cybersécurité a révélé que 90 % des organisations manquent d’une stratégie claire pour gérer les menaces liées à l’IA, malgré leur utilisation généralisée.
Les systèmes autonomes voient une adoption croissante dans les flux de travail des entreprises, allant de la rédaction de documents à la planification de réunions, en passant par des tâches plus avancées comme le développement logiciel. Avec cette prolifération rapide, un déploiement durable et mesuré est essentiel. Sans cela, le déploiement de l’IA agentique pourrait engendrer une nouvelle forme de prolifération d’identités.
Identité agentique
Contrairement aux chatbots traditionnels, les agents modernes peuvent interagir et contrôler directement les systèmes d’entreprise, accomplissant des tâches auparavant réservées aux travailleurs humains. Pour renforcer la transparence et la responsabilité dans le suivi des actions des agents, il est essentiel de les traiter comme des entités individuelles, tout comme les employés humains.
Le défi fondamental consiste à gérer l’authentification, l’autorisation et le contrôle d’accès pour surveiller la technologie à mesure qu’elle se développe. Il s’agit essentiellement d’un problème d’autorisation ouverte, où la question clé est de savoir si un agent doit avoir accès à un système, qui accorde cet accès, pour combien de temps et qui peut le révoquer.
Risques et implications
La vitesse de développement de cette technologie exacerbe le problème. Dans de nombreux cas, les ingénieurs sont encouragés à privilégier la rapidité au détriment de la gouvernance, entraînant un grand nombre d’identités non humaines non gérées dans les environnements d’entreprise.
Les agents agissent comme des employés, accomplissant des tâches humaines. Par conséquent, la manière de les sécuriser consiste à les gérer en tant qu’identités. Les agents doivent être intégrés, gouvernés et surveillés de la même manière que les employés humains, avec des identités définies et une gestion de leur cycle de vie.
Des normes et des modèles de gouvernance mieux définis sont également cruciaux pour les entreprises souhaitant adopter l’IA agentique. Avoir ces modèles en place avant de procéder à un déploiement massif est essentiel pour assurer la viabilité à long terme.
Conclusion
Bien que l’avenir de l’IA agentique soit généralement présenté comme prometteur et riche en opportunités, le message des leaders en matière de sécurité est clair : sans une gouvernance adéquate et des structures d’identité, l’innovation dans l’IA agentique pourrait rapidement se transformer d’un atout productif en un risque majeur.