Pourquoi l’absence de gouvernance nuira aux entreprises utilisant l’IA agentique
Les entreprises agissent rapidement pour adopter l’IA agentique—des systèmes d’intelligence artificielle qui fonctionnent sans guidance humaine—mais elles mettent beaucoup plus de temps à établir une gouvernance pour les superviser, selon une nouvelle enquête. Cet écart constitue une source majeure de risque dans l’adoption de l’IA, mais c’est également une opportunité commerciale.
État des lieux de l’adoption de l’IA agentique
Une enquête récente a révélé que 41 % des organisations utilisent l’IA agentique dans leurs opérations quotidiennes, non pas comme des projets pilotes ou des tests uniques, mais dans le cadre de leurs flux de travail réguliers. Cependant, la gouvernance est à la traîne, avec seulement 27 % des organisations affirmant que leurs cadres de gouvernance sont suffisamment matures pour surveiller et gérer ces systèmes de manière efficace.
Importance de la gouvernance
Dans ce contexte, la gouvernance ne concerne pas la réglementation ou des règles inutiles. Elle implique d’avoir des politiques et des pratiques qui permettent aux gens d’influencer clairement le fonctionnement des systèmes autonomes, notamment qui est responsable des décisions, comment le comportement est vérifié et quand les humains doivent intervenir.
Ce décalage peut poser problème lorsque les systèmes autonomes agissent dans des situations réelles avant que quiconque puisse intervenir. Par exemple, lors d’une récente panne de courant, des robotaxis autonomes se sont retrouvés bloqués à des intersections, empêchant les véhicules d’urgence d’avancer et créant de la confusion parmi les autres conducteurs. Cela a montré que même lorsque les systèmes autonomes se comportent « comme prévu », des conditions imprévues peuvent entraîner des résultats indésirables.
Responsabilité et intervention
Lorsque les systèmes d’IA agissent seuls, la responsabilité ne se trouve plus là où les organisations s’y attendent. Les décisions continuent d’être prises, mais il est plus difficile d’en retracer l’origine. Par exemple, dans le secteur des services financiers, les systèmes de détection de fraude bloquent de plus en plus les activités suspectes en temps réel avant qu’un humain n’examine le cas. Les clients découvrent souvent le problème seulement lorsque leur carte est refusée.
Dans cette situation, le problème ne réside pas dans la technologie elle-même—qui fonctionne comme elle a été conçue—mais dans l’absence de responsabilité. Les recherches sur la gouvernance humaine-IA montrent que les problèmes surviennent lorsque les organisations ne définissent pas clairement comment les personnes et les systèmes autonomes doivent interagir. Cette absence de clarté rend difficile de savoir qui est responsable et quand intervenir.
Conséquences d’une intervention tardive
Dans de nombreuses organisations, les humains sont techniquement « dans la boucle », mais seulement après que les systèmes autonomes aient déjà agi. Les gens s’impliquent généralement une fois qu’un problème devient visible, lorsque le prix semble incorrect, une transaction est signalée ou un client se plaint. À ce moment-là, le système a déjà pris une décision, et l’examen humain devient correctif plutôt que supervisoire.
Une intervention tardive peut limiter les conséquences des décisions individuelles, mais elle n’éclaire que rarement qui est responsable. Même si les résultats peuvent être corrigés, la responsabilité reste floue.
Vers une gouvernance intelligente
La prochaine avantage compétitif dans l’IA ne viendra pas d’une adoption plus rapide, mais d’une gouvernance plus intelligente. À mesure que les systèmes autonomes prennent plus de responsabilités, le succès appartiendra aux organisations qui définissent clairement la propriété, la supervision et l’intervention dès le départ.
Dans l’ère de l’IA agentique, la confiance sera accordée aux organisations qui gouvernent le mieux, et non simplement à celles qui adoptent en premier.