Gouvernance et sécurité : Clés pour l’adoption de l’IA agentique

A compass illustrating guidance and direction.

Comment la gouvernance et la sécurité peuvent favoriser l’adoption de l’IA agentique

Les risques de « shadow » sont un problème familier pour les dirigeants techniques, un terme attribué aux actifs ou aux applications qui échappent à la portée de visibilité des TI. Pendant des années, les professionnels des données et de la sécurité ont lutté pour trouver et protéger les données d’ombre – des informations sensibles sur l’entreprise stockées en dehors du système de gestion des données formel.

Plus récemment, les professionnels des TI ont lutté avec l’IA d’ombre – la présence d’applications AI non sanctionnées au sein du système informatique d’une entreprise. Maintenant, un nouveau risque d’ombre est à l’horizon : les agents AI d’ombre.

Alors que la technologie de l’IA générative progresse, les entreprises expérimentent avec sa dernière itération : des agents AI capables de prendre des décisions, d’utiliser d’autres outils logiciels et d’interagir de manière autonome avec des systèmes critiques. Cela peut être un atout majeur – mais seulement si les entreprises disposent de la gouvernance AI et de la sécurité appropriées en place.

Les avantages de l’autonomie des agents AI

L’autonomie des agents AI est un argument de vente majeur. Leur capacité à poursuivre des objectifs, à résoudre des tâches complexes et à se faufiler habilement dans des environnements technologiques débloque des gains de productivité majeurs. Les tâches chronophages qui nécessitaient autrefois des humains, comme le dépannage des problèmes informatiques ou la gestion des workflows RH, peuvent être accélérées grâce à l’aide des agents.

L’accessibilité des agents AI est un autre avantage. Ces outils utilisent un traitement du langage naturel avancé, permettant à une diversité de travailleurs – pas seulement aux développeurs de logiciels et aux ingénieurs – de donner de nouveaux cas d’utilisation ou des flux de travail aux agents.

Les risques associés aux agents AI

Cependant, cette même autonomie et accessibilité peuvent également inviter au risque si elles ne sont pas accompagnées d’une gouvernance et d’une sécurité AI adéquates. Étant donné qu’une plus grande variété d’employés peut utiliser les agents AI, les chances que quelqu’un utilise ces outils sans permission ou formation appropriée augmentent.

Les entreprises connaissent déjà ce problème avec les assistants AI et les chatbots. Les travailleurs peuvent introduire des données importantes de l’entreprise dans des outils tiers non sanctionnés – et ces données peuvent ensuite être fuitées ou volées.

Comme les agents AI peuvent agir sans supervision au sein d’infrastructures clés, l’impact négatif potentiel des configurations d’ombre augmente également. Les agents AI sont vulnérables aux mêmes problèmes que les autres systèmes AI tels que les hallucinations, les biais et le dérive.

Gagner en contrôle

Lorsque les problèmes de données d’ombre et d’IA d’ombre traditionnels ont émergé, les entreprises n’ont pas interrompu l’innovation – elles se sont adaptées. Cela devrait également être la stratégie à adopter dans cette nouvelle ère.

La première étape pour éliminer les ombres est d’introduire de la lumière. Les professionnels des TI ont besoin d’une visibilité complète sur les agents AI dans leur environnement. Les outils de gouvernance et de sécurité AI peuvent automatiquement rechercher et cataloguer les applications AI – plus d’agents se cachant dans l’ombre.

Après la découverte, l’agent doit être intégré à l’inventaire, où il est aligné avec un cas d’utilisation et incorporé dans le processus de gouvernance. L’évaluation des risques, l’évaluation de la conformité et les contrôles et garde-fous appropriés – tous des éléments clés de la gouvernance AI – sont appliqués pour atténuer le risque.

Les entreprises devraient également rendre les actions de leurs agents traçables et explicables. Elles devraient établir des seuils prédéterminés pour la toxicité et le biais. Et elles devraient surveiller attentivement les résultats des agents pour la pertinence contextuelle, la fidélité des requêtes et la qualité de la sélection des outils.

Le cœur de cette stratégie est de s’assurer que la sécu­rité AI et la gouvernance sont des disciplines profondément intégrées. Cette collaboration doit se faire au niveau logiciel, mais aussi au niveau humain : les développeurs AI et les professionnels de la sécurité doivent communiquer tôt et souvent.

Articles

Ingénieurs en IA : Performance ou Responsabilité ?

L'intelligence artificielle a connu une explosion de ses capacités, plaçant les ingénieurs en IA à l'avant-garde de l'innovation. Pendant ce temps, la responsabilité éthique devient cruciale, car les...

L’IA responsable : un impératif incontournable

L'intelligence artificielle responsable n'est plus un simple mot à la mode, mais une nécessité fondamentale, selon Dr Anna Zeiter. Elle souligne l'importance d'établir des systèmes d'IA fiables et...

Intégrer l’IA en toute conformité dans votre entreprise

L'adoption de l'IA dans les entreprises échoue au moins deux fois plus souvent qu'elle ne réussit, selon la Cloud Security Alliance (CSA). Le modèle proposé, appelé Dynamic Process Landscape (DPL)...

Préserver les données générées par l’IA : enjeux et meilleures pratiques

Les outils d'intelligence artificielle générative (GAI) soulèvent des préoccupations juridiques telles que la confidentialité des données et les considérations de privilège. Les organisations doivent...

L’Intelligence Artificielle Responsable : Principes et Avantages

Aujourd'hui, l'IA change la façon dont nous vivons et travaillons, il est donc très important de l'utiliser de manière appropriée. L'IA responsable signifie créer et utiliser une IA qui est juste...

Réussir avec l’IA : Éthique et Gouvernance au cœur de l’Innovation

Il y a vingt ans, personne n'aurait pu prédire que nous compterions sur l'intelligence artificielle (IA) pour prendre des décisions commerciales critiques. Aujourd'hui, les entreprises doivent se...

Régulation de l’IA en Espagne : Pionnière en Europe

L'Espagne est à l'avant-garde de la gouvernance de l'IA avec la création du premier régulateur européen de l'IA (AESIA) et un cadre réglementaire en cours d'élaboration. Un projet de loi national sur...

Réglementation de l’IA : État des lieux et enjeux mondiaux

L'intelligence artificielle (IA) a connu des avancées considérables ces dernières années, ce qui a entraîné des opportunités et des risques potentiels. Les gouvernements et les organismes de...

L’IA dans les jeux d’argent : enjeux et responsabilités

L'article aborde l'impact de l'intelligence artificielle dans l'industrie des jeux d'argent, mettant en lumière les promesses d'efficacité et les risques réglementaires croissants. Les opérateurs...