Gouvernance et sécurité : Clés pour l’adoption de l’IA agentique

A compass illustrating guidance and direction.

Comment la gouvernance et la sécurité peuvent favoriser l’adoption de l’IA agentique

Les risques de « shadow » sont un problème familier pour les dirigeants techniques, un terme attribué aux actifs ou aux applications qui échappent à la portée de visibilité des TI. Pendant des années, les professionnels des données et de la sécurité ont lutté pour trouver et protéger les données d’ombre – des informations sensibles sur l’entreprise stockées en dehors du système de gestion des données formel.

Plus récemment, les professionnels des TI ont lutté avec l’IA d’ombre – la présence d’applications AI non sanctionnées au sein du système informatique d’une entreprise. Maintenant, un nouveau risque d’ombre est à l’horizon : les agents AI d’ombre.

Alors que la technologie de l’IA générative progresse, les entreprises expérimentent avec sa dernière itération : des agents AI capables de prendre des décisions, d’utiliser d’autres outils logiciels et d’interagir de manière autonome avec des systèmes critiques. Cela peut être un atout majeur – mais seulement si les entreprises disposent de la gouvernance AI et de la sécurité appropriées en place.

Les avantages de l’autonomie des agents AI

L’autonomie des agents AI est un argument de vente majeur. Leur capacité à poursuivre des objectifs, à résoudre des tâches complexes et à se faufiler habilement dans des environnements technologiques débloque des gains de productivité majeurs. Les tâches chronophages qui nécessitaient autrefois des humains, comme le dépannage des problèmes informatiques ou la gestion des workflows RH, peuvent être accélérées grâce à l’aide des agents.

L’accessibilité des agents AI est un autre avantage. Ces outils utilisent un traitement du langage naturel avancé, permettant à une diversité de travailleurs – pas seulement aux développeurs de logiciels et aux ingénieurs – de donner de nouveaux cas d’utilisation ou des flux de travail aux agents.

Les risques associés aux agents AI

Cependant, cette même autonomie et accessibilité peuvent également inviter au risque si elles ne sont pas accompagnées d’une gouvernance et d’une sécurité AI adéquates. Étant donné qu’une plus grande variété d’employés peut utiliser les agents AI, les chances que quelqu’un utilise ces outils sans permission ou formation appropriée augmentent.

Les entreprises connaissent déjà ce problème avec les assistants AI et les chatbots. Les travailleurs peuvent introduire des données importantes de l’entreprise dans des outils tiers non sanctionnés – et ces données peuvent ensuite être fuitées ou volées.

Comme les agents AI peuvent agir sans supervision au sein d’infrastructures clés, l’impact négatif potentiel des configurations d’ombre augmente également. Les agents AI sont vulnérables aux mêmes problèmes que les autres systèmes AI tels que les hallucinations, les biais et le dérive.

Gagner en contrôle

Lorsque les problèmes de données d’ombre et d’IA d’ombre traditionnels ont émergé, les entreprises n’ont pas interrompu l’innovation – elles se sont adaptées. Cela devrait également être la stratégie à adopter dans cette nouvelle ère.

La première étape pour éliminer les ombres est d’introduire de la lumière. Les professionnels des TI ont besoin d’une visibilité complète sur les agents AI dans leur environnement. Les outils de gouvernance et de sécurité AI peuvent automatiquement rechercher et cataloguer les applications AI – plus d’agents se cachant dans l’ombre.

Après la découverte, l’agent doit être intégré à l’inventaire, où il est aligné avec un cas d’utilisation et incorporé dans le processus de gouvernance. L’évaluation des risques, l’évaluation de la conformité et les contrôles et garde-fous appropriés – tous des éléments clés de la gouvernance AI – sont appliqués pour atténuer le risque.

Les entreprises devraient également rendre les actions de leurs agents traçables et explicables. Elles devraient établir des seuils prédéterminés pour la toxicité et le biais. Et elles devraient surveiller attentivement les résultats des agents pour la pertinence contextuelle, la fidélité des requêtes et la qualité de la sélection des outils.

Le cœur de cette stratégie est de s’assurer que la sécu­rité AI et la gouvernance sont des disciplines profondément intégrées. Cette collaboration doit se faire au niveau logiciel, mais aussi au niveau humain : les développeurs AI et les professionnels de la sécurité doivent communiquer tôt et souvent.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...