#Infosec2025 : Inquiétudes croissantes concernant les risques de sécurité de l’IA agentique

Les systèmes d’IA agentique, qui fonctionnent avec un haut degré d’autonomie, suscitent des préoccupations croissantes en matière de sécurité, selon des experts. Un système d’IA agentique pourrait choisir le modèle d’IA à utiliser, transmettre des données ou des résultats à un autre outil d’IA, ou même prendre une décision sans approbation humaine.

Ces systèmes d’IA agentique opèrent à un rythme plus rapide que les systèmes de génération précédente basés sur des modèles de langage de grande taille (LLMs), car ils fonctionnent sans nécessiter d’instructions ou de prompts humains. De plus, ils peuvent apprendre en cours de route, adaptant les modèles et les prompts qu’ils utilisent.

Les risques liés aux systèmes d’IA agentique

Des difficultés peuvent survenir lorsque les organisations enchaînent des composants d’IA, tels que des outils d’IA générative ou des chatbots, sans contrôles supplémentaires, ou lorsqu’elles permettent aux agents d’IA de prendre des décisions de manière autonome. Cela se produit déjà dans le domaine des technologies de l’information, notamment dans l’écriture de code et la configuration des systèmes.

Cela soulève le risque que les déploiements d’IA des organisations avancent plus rapidement que les contrôles de sécurité.

Selon une étude de la société de conseil EY, seulement 31 % des organisations affirment que leur mise en œuvre de l’IA est entièrement mature. De plus, l’étude a révélé que la gouvernance de l’IA dans les entreprises est à la traîne par rapport à l’innovation de l’IA.

Ce phénomène se manifeste de plus en plus avec l’IA agentique, qui peut amplifier les risques déjà identifiés avec les LLMs. Ces systèmes d’IA agentique sont soumis à tous les mêmes risques, notamment l’injection de prompts, le poisoning, les biais et les inexactitudes.

Cependant, les problèmes peuvent s’aggraver lorsque l’un des agents transmet des données inexactes, biaisées ou manipulées à un autre. Même un taux d’erreur relativement bas, de quelques points de pourcentage ou moins, peut devenir une erreur significative s’il est amplifié à travers des sous-systèmes. La sécurité est encore aggravée si les outils d’IA sont connectés à des sources de données en dehors du contrôle de l’entreprise.

“Au lieu que l’IA communique directement avec les humains, elle interagit avec d’autres systèmes d’IA,” explique un expert en IA.

“Nous avons besoin d’une couche de sécurité intermédiaire pour l’IA, surtout si vous collectez ou ingérez des informations de l’extérieur.”

La nécessité d’une vigilance accrue

Le développement rapide de l’IA agentique signifie que les équipes de sécurité doivent travailler rapidement pour identifier et signaler les risques potentiels. L’étude d’EY a révélé que 76 % des entreprises utilisent déjà l’IA agentique ou prévoient de le faire dans l’année, tandis que seulement 56 % affirment être modérément ou entièrement familiers avec les risques.

“La mise en œuvre de l’IA est différente du déploiement des technologies précédentes,” a déclaré un leader mondial en IA responsable. “Ce n’est pas un exercice « tout-en-un », mais un voyage, où votre gouvernance et vos contrôles d’IA doivent suivre le rythme des investissements dans la fonctionnalité de l’IA.”

Les conseils d’administration voudront voir des mesures pour sécuriser l’utilisation de l’IA, y compris l’IA agentique.

Violations et risques

Selon un directeur de la sécurité pour l’IA, l’adoption rapide de l’IA agentique pousse les organisations à renforcer leurs contrôles et politiques, ainsi qu’à examiner si les systèmes agentiques augmentent leur surface d’attaque.

“L’IA agentique n’est plus confinée au laboratoire,” a-t-il noté.

Le développement de code est un domaine où des agents sont utilisés. “Si les agents écrivent du code, cela doit être sécurisé,” a-t-il averti.

“Vous devez tester le code généré par les agents, tout en leur fournissant les bonnes protections.”

Il est à noter que les développeurs utilisent l’IA agentique car elle accélère la production de code. Dans d’autres domaines, les entreprises utilisent des agents pour améliorer le service client et l’automatisation.

Alors que les bots de service client de génération précédente étaient souvent incapables de répondre aux questions et devaient passer l’utilisateur à un agent humain, les systèmes d’IA agentique sont plus susceptibles de résoudre les problèmes eux-mêmes.

“Les agents d’IA redéfinissent rapidement la manière dont les entreprises interagissent avec les clients, automatisent leurs opérations et livrent des services,” a déclaré un directeur de stratégie en cybersécurité.

Cependant, cela dépend à la fois des développeurs d’outils d’IA et des équipes informatiques qui les déploient pour s’assurer que les API reliant les outils d’IA sont également sécurisées.

“Ces interfaces ne sont pas seulement des connecteurs techniques, elles fournissent les lignes de vie par lesquelles les agents d’IA accèdent aux données, exécutent des tâches et s’intègrent à travers les plateformes. Sans une sécurité API robuste, même l’IA la plus avancée devient une vulnérabilité plutôt qu’un atout,” a-t-il expliqué.

Comme le souligne l’expert, le risque des systèmes d’IA agentique ne provient pas seulement des composants eux-mêmes, mais également de leur utilisation conjointe. “Le risque de sécurité réside dans les lacunes.”

Il suggère d’utiliser le red teaming de l’IA pour tester que toutes les mises en œuvre de l’IA sont sécurisées, ainsi que d’utiliser des outils tels que des factures de matériaux d’IA pour vérifier quelle technologie est utilisée où, ainsi que pour documenter les connexions et les transferts entre les agents d’IA.

“Les responsables de la sécurité informatique n’ont pas de visibilité,” dit-il.

“C’est pourquoi nous avons des factures de matériaux d’IA qui permettent de voir les modèles et les ensembles de données que vous utilisez ainsi que les dépendances dans votre codage et vos applications.”

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...