Comment la gouvernance et la sécurité peuvent favoriser l’adoption de l’IA agentique
Les risques de « shadow » sont un problème familier pour les dirigeants techniques, un terme attribué aux actifs ou aux applications qui échappent à la portée de visibilité des TI. Pendant des années, les professionnels des données et de la sécurité ont lutté pour trouver et protéger les données d’ombre – des informations sensibles sur l’entreprise stockées en dehors du système de gestion des données formel.
Plus récemment, les professionnels des TI ont lutté avec l’IA d’ombre – la présence d’applications AI non sanctionnées au sein du système informatique d’une entreprise. Maintenant, un nouveau risque d’ombre est à l’horizon : les agents AI d’ombre.
Alors que la technologie de l’IA générative progresse, les entreprises expérimentent avec sa dernière itération : des agents AI capables de prendre des décisions, d’utiliser d’autres outils logiciels et d’interagir de manière autonome avec des systèmes critiques. Cela peut être un atout majeur – mais seulement si les entreprises disposent de la gouvernance AI et de la sécurité appropriées en place.
Les avantages de l’autonomie des agents AI
L’autonomie des agents AI est un argument de vente majeur. Leur capacité à poursuivre des objectifs, à résoudre des tâches complexes et à se faufiler habilement dans des environnements technologiques débloque des gains de productivité majeurs. Les tâches chronophages qui nécessitaient autrefois des humains, comme le dépannage des problèmes informatiques ou la gestion des workflows RH, peuvent être accélérées grâce à l’aide des agents.
L’accessibilité des agents AI est un autre avantage. Ces outils utilisent un traitement du langage naturel avancé, permettant à une diversité de travailleurs – pas seulement aux développeurs de logiciels et aux ingénieurs – de donner de nouveaux cas d’utilisation ou des flux de travail aux agents.
Les risques associés aux agents AI
Cependant, cette même autonomie et accessibilité peuvent également inviter au risque si elles ne sont pas accompagnées d’une gouvernance et d’une sécurité AI adéquates. Étant donné qu’une plus grande variété d’employés peut utiliser les agents AI, les chances que quelqu’un utilise ces outils sans permission ou formation appropriée augmentent.
Les entreprises connaissent déjà ce problème avec les assistants AI et les chatbots. Les travailleurs peuvent introduire des données importantes de l’entreprise dans des outils tiers non sanctionnés – et ces données peuvent ensuite être fuitées ou volées.
Comme les agents AI peuvent agir sans supervision au sein d’infrastructures clés, l’impact négatif potentiel des configurations d’ombre augmente également. Les agents AI sont vulnérables aux mêmes problèmes que les autres systèmes AI tels que les hallucinations, les biais et le dérive.
Gagner en contrôle
Lorsque les problèmes de données d’ombre et d’IA d’ombre traditionnels ont émergé, les entreprises n’ont pas interrompu l’innovation – elles se sont adaptées. Cela devrait également être la stratégie à adopter dans cette nouvelle ère.
La première étape pour éliminer les ombres est d’introduire de la lumière. Les professionnels des TI ont besoin d’une visibilité complète sur les agents AI dans leur environnement. Les outils de gouvernance et de sécurité AI peuvent automatiquement rechercher et cataloguer les applications AI – plus d’agents se cachant dans l’ombre.
Après la découverte, l’agent doit être intégré à l’inventaire, où il est aligné avec un cas d’utilisation et incorporé dans le processus de gouvernance. L’évaluation des risques, l’évaluation de la conformité et les contrôles et garde-fous appropriés – tous des éléments clés de la gouvernance AI – sont appliqués pour atténuer le risque.
Les entreprises devraient également rendre les actions de leurs agents traçables et explicables. Elles devraient établir des seuils prédéterminés pour la toxicité et le biais. Et elles devraient surveiller attentivement les résultats des agents pour la pertinence contextuelle, la fidélité des requêtes et la qualité de la sélection des outils.
Le cœur de cette stratégie est de s’assurer que la sécurité AI et la gouvernance sont des disciplines profondément intégrées. Cette collaboration doit se faire au niveau logiciel, mais aussi au niveau humain : les développeurs AI et les professionnels de la sécurité doivent communiquer tôt et souvent.