Les entreprises utilisent déjà l’IA agentique pour prendre des décisions, mais la gouvernance est à la traîne
Les entreprises agissent rapidement pour adopter l’IA agentique – des systèmes d’intelligence artificielle qui fonctionnent sans intervention humaine – mais ont été beaucoup plus lentes à mettre en place une gouvernance pour les superviser, selon une nouvelle enquête. Ce décalage représente une source majeure de risque dans l’adoption de l’IA. C’est également, selon moi, une opportunité commerciale.
L’adoption de l’IA agentique
Une enquête récente a révélé que 41 % des organisations utilisent l’IA agentique dans leurs opérations quotidiennes. Ces systèmes ne sont pas simplement des projets pilotes ou des tests isolés, mais font partie des flux de travail réguliers.
Le retard en matière de gouvernance
En revanche, la gouvernance est à la traîne. Seulement 27 % des organisations affirment que leurs cadres de gouvernance sont suffisamment matures pour surveiller et gérer ces systèmes efficacement. Dans ce contexte, la gouvernance ne concerne pas la réglementation ou des règles inutiles, mais implique d’avoir des politiques et des pratiques permettant aux individus d’influencer clairement le fonctionnement des systèmes autonomes.
Les risques liés à l’absence de gouvernance
Ce décalage peut poser problème lorsque des systèmes autonomes agissent dans des situations réelles avant que quiconque puisse intervenir. Par exemple, lors d’une récente panne de courant, des robotaxis autonomes se sont retrouvés bloqués à des intersections, bloquant les véhicules d’urgence et confondant d’autres conducteurs. Cette situation a montré que même lorsque les systèmes autonomes agissent « comme prévu », des conditions inattendues peuvent entraîner des résultats indésirables.
Lorsque quelque chose tourne mal avec l’IA, la question se pose : qui est responsable – et qui peut intervenir ? Lorsque les systèmes d’IA agissent seuls, la responsabilité ne se situe plus là où les organisations s’y attendent. Les décisions continuent d’être prises, mais la traçabilité de la responsabilité devient plus difficile.
Importance de la gouvernance
La recherche sur la gouvernance humaine-IA montre que des problèmes surviennent lorsque les organisations ne définissent pas clairement comment les personnes et les systèmes autonomes doivent interagir. Cette absence de clarté rend difficile de savoir qui est responsable et quand ils doivent intervenir.
Sans une gouvernance conçue pour l’autonomie, de petits problèmes peuvent rapidement s’aggraver. La supervision devient sporadique et la confiance s’affaiblit, non pas parce que les systèmes échouent, mais parce que les gens ont du mal à expliquer ou à soutenir ce que font les systèmes.
Intervention humaine tardive
Dans de nombreuses organisations, les humains sont techniquement « dans la boucle », mais seulement après que les systèmes autonomes aient déjà agi. Les gens tendent à s’impliquer une fois qu’un problème devient visible – lorsqu’un prix semble incorrect, qu’une transaction est signalée ou qu’un client se plaint. À ce stade, le système a déjà pris une décision, et l’examen humain devient correctif plutôt que supervisoire.
Cette intervention tardive peut limiter les conséquences des décisions individuelles, mais elle ne clarifie que rarement qui est responsable. Bien que les résultats puissent être corrigés, la responsabilité reste floue.
L’importance d’une gouvernance intelligente
Pour de nombreuses entreprises, l’IA agentique apporte des résultats rapides et précoces, surtout lorsque les tâches sont d’abord automatisées. Cependant, à mesure que les systèmes autonomes se développent, les organisations ajoutent souvent des vérifications manuelles et des étapes d’approbation pour gérer les risques. Ce ralentissement ne doit pas nécessairement se produire. Les organisations ayant une gouvernance plus solide sont beaucoup plus susceptibles de transformer ces gains initiaux en résultats à long terme, comme une plus grande efficacité et une croissance des revenus.
Une bonne gouvernance ne limite pas l’autonomie. Elle la rend praticable en clarifiant qui possède les décisions, comment le fonctionnement des systèmes est surveillé, et quand les personnes doivent intervenir. Des directives internationales soulignent que la responsabilité et la supervision humaine doivent être intégrées dès le départ dans les systèmes d’IA, et non ajoutées ultérieurement.
Conclusion
Le prochain avantage concurrentiel en IA ne viendra pas d’une adoption plus rapide, mais d’une gouvernance plus intelligente. À mesure que les systèmes autonomes prennent plus de responsabilités, le succès appartiendra aux organisations qui définissent clairement la propriété, la supervision et l’intervention dès le départ.