La gouvernance aide l’IA agentique à progresser plus rapidement au sein des entreprises
L’enthousiasme conduit à l’exécution, qui entraîne des résultats. C’est l’équation qui signale généralement l’intégration de la technologie dans une entreprise, et l’IA agentique ne fait pas exception. Les dynamiques observées récemment montrent que les entreprises sont enthousiastes et commencent à exécuter, construisant des systèmes pour produire des résultats.
Un rapport révèle que l’enthousiasme pour l’IA agentique devance de loin la préparation organisationnelle. La plupart des dirigeants s’attendent à ce que l’IA agentique transforme leurs entreprises et beaucoup croient qu’elle deviendra la norme dans leurs secteurs. Les premiers utilisateurs voient déjà des gains en productivité et en prise de décision. Pourtant, pour la plupart des organisations, l’utilisation réelle reste limitée. Seule une minorité utilise l’IA agentique à grande échelle, et beaucoup peinent à traduire de grandes attentes en résultats commerciaux cohérents.
Préparation et gouvernance
Le fossé ne réside pas dans la croyance en la technologie, mais dans la préparation. Les fondations de données s’améliorent, mais la gouvernance, les compétences de la main-d’œuvre et des mesures claires de succès sont en retard. Peu d’organisations ont défini à quoi ressemble le succès ou comment gérer le risque lorsque les systèmes d’IA agissent avec plus d’autonomie. Les dirigeants qui progressent se concentrent sur des cas d’utilisation pratiques, investissent dans la préparation de la main-d’œuvre et lient les efforts d’IA agentique directement à la stratégie commerciale. Le rapport conclut que l’IA agentique peut apporter une valeur significative, mais seulement pour les organisations prêtes à repenser leurs processus, à investir dans leurs personnes et à mettre en place des garde-fous solides avant de se développer.
« Le fossé entre les attentes et la réalité reste large. La préparation organisationnelle peut aider à combler ce fossé en offrant une meilleure chance de réussite lors de la mise en œuvre », indique le rapport.
Cadre de gouvernance à Singapour
La gouvernance peut également être imposée. Singapour a introduit un cadre de gouvernance formel spécifiquement conçu pour l’IA agentique. Ce cadre a pour objectif d’aider les organisations à déployer des agents d’IA capables de planifier, décider et agir avec une intervention humaine limitée. Le cadre développe les efforts antérieurs de gouvernance de l’IA, mais déplace le focus des IA génératives vers des systèmes capables d’agir dans le monde réel, tels que la mise à jour de bases de données ou le traitement de paiements. L’objectif est d’équilibrer les gains de productivité avec des mesures de sécurité contre de nouveaux risques opérationnels.
Le cadre énonce des étapes pratiques pour les entreprises, y compris la définition de limites claires sur l’autonomie des agents d’IA et la surveillance des systèmes tout au long de leur cycle de vie. Il met également en évidence des risques tels que des actions non autorisées et le biais d’automatisation, où les gens font trop confiance à des systèmes qui ont bien fonctionné dans le passé. Les leaders de l’industrie ont salué cette initiative, affirmant que des règles claires sont nécessaires alors que l’IA agentique commence à influencer des décisions ayant de réelles conséquences.
Défis de gouvernance et sécurité
Un autre rapport avertit que les entreprises adoptent l’IA agentique à toute vitesse tout en restant à la traîne sur la gouvernance et la sécurité. La plupart des entreprises utilisent déjà des agents d’IA dans leurs tâches quotidiennes, mais très peu ont mis en place une surveillance efficace. Bien que plus de neuf entreprises sur dix utilisent des agents d’IA, une petite fraction croit avoir de solides stratégies de gouvernance. Cela crée un déséquilibre entre l’utilisation généralisée des agents d’IA et l’absence de plans clairs pour gérer les risques qu’ils introduisent.
Le principal défi est que les agents d’IA agissent de plus en plus comme des employés numériques sans être gérés comme tels. Ces agents nécessitent un accès aux systèmes, aux données et aux flux de travail pour être utiles, ce qui crée de nouveaux risques si leurs identités et permissions ne sont pas clairement définies. Les auteurs recommandent de traiter les agents d’IA comme des identités numériques formelles, avec des règles claires concernant l’authentification, l’accès, la surveillance et la gestion du cycle de vie. Sans cette structure, les organisations risquent de créer une « prolifération d’identités » non gérées qui pourrait transformer l’IA agentique d’un gain de productivité en un problème majeur de sécurité et de conformité.
« Les agents ont besoin de leur propre identité. Une fois que vous acceptez cela, tout le reste suit : contrôle d’accès, gouvernance, audit et conformité », conclut le rapport.