Alerte sur les risques cybernétiques croissants liés aux agents d’IA
Le PDG d’OpenAI a averti que les agents d’IA émergent rapidement comme une technologie à double tranchant. Bien que ces systèmes deviennent de plus en plus capables d’agir de manière autonome, ils posent également des menaces croissantes, leur échelle et leur sophistication les rendant plus attrayants pour les hackers.
Améliorations des modèles d’IA
Selon les observations, les modèles ont connu des améliorations rapides au cours de l’année écoulée, devenant « suffisamment bons en matière de sécurité informatique pour commencer à découvrir des vulnérabilités critiques ».
Une étude de l’année dernière a révélé qu’un agent d’IA avait surpassé la plupart des hackers humains lors d’une évaluation des vulnérabilités d’un réseau.
Performance de l’agent ARTEMIS
Une étude a mis en lumière à la fois le potentiel et les limites actuelles des agents de cybersécurité alimentés par l’IA. L’étude a testé six agents d’IA et dix testeurs humains pendant une évaluation de vulnérabilité de 16 heures sur un réseau de 8 000 dispositifs. L’agent ARTEMIS a surpassé neuf des dix hackers humains, se classant deuxième au concours.
ARTEMIS a découvert neuf vulnérabilités et a soumis 82 % de ses résultats sous forme de rapports valides. Les chercheurs ont décrit sa performance comme démontrant une « sophistication technique » comparable à celle des meilleurs participants humains, tout en opérant à un coût de 18 $ de l’heure, contre 60 $ pour les testeurs de pénétration professionnels.
Le succès de l’agent d’IA découle de sa capacité à générer des « sous-agents » qui investiguent les vulnérabilités en arrière-plan tout en continuant à scanner d’autres menaces, une capacité de traitement parallèle que les testeurs humains ne peuvent pas reproduire.
Progrès et défis
Cependant, l’étude a également révélé qu’ARTEMIS avait manqué certaines vulnérabilités identifiées par les participants humains et nécessitait des indices pour en trouver d’autres. De plus, les agents d’IA d’autres entreprises manquaient d’expertise en cybersécurité dans leur conception, surpassant seulement deux des testeurs humains.
Cela suggère qu’il reste un écart significatif avant que la technologie ne puisse égaler les capacités d’experts humains d’élite.
L’avenir : Équilibrer innovation et sécurité
Les capacités croissantes des agents d’IA représentent à la fois une opportunité et une responsabilité pour l’industrie technologique. La création d’un rôle de préparation et les résultats de recherche soulignent que l’industrie reconnaît la double nature de ces outils puissants.
À mesure que les agents d’IA deviennent suffisamment avancés pour découvrir des vulnérabilités susceptibles d’être exploitées, les organisations doivent développer des cadres robustes pour un déploiement responsable. Le sous-performancement des systèmes d’IA à usage général par rapport à des systèmes spécialisés comme ARTEMIS met en avant la nécessité de solutions d’IA axées sur la sécurité.
À l’avenir, le secteur technologique doit équilibrer optimisme et prudence dans sa posture opérationnelle autour de l’IA. Des rapports prédisent que les agents d’IA seront de plus en plus utilisés par des acteurs malveillants pour intensifier les attaques tout au long de l’année 2026, rendant les mesures de sécurité proactives essentielles.