Menaces AI : Renforcer la cybersécurité face aux attaques intelligentes

A network cable to illustrate connectivity and the potential vulnerabilities in intelligent systems.

Quand l’IA contre-attaque : Défense contre la prochaine vague de menaces intelligentes

La cybersécurité a traditionnellement évolué par étapes constantes et délibérées. Les organisations ont investi dans des pare-feu, la protection des points de terminaison, la gestion des informations et des événements de sécurité (SIEM) et des cadres de conformité pour protéger leurs actifs numériques. Pendant des années, la lutte entre attaquants et défenseurs est restée largement symétrique : exploiter et corriger, violer et répondre, s’adapter et contrer. Cependant, l’IA et l’apprentissage automatique (ML) modifient cet équilibre. Aujourd’hui, la detection des anomalies, l’analyse comportementale et l’évaluation en temps réel des menaces sont des outils essentiels, accélérant à la fois la réponse et la résilience.

Avec l’essor de l’IA générative (Gen AI) et les avancées rapides de l’IA agentique, le terrain de jeu est définitivement modifié. Les grands modèles de langage (LLM) des communautés propriétaires et open source ont introduit un raisonnement contextuel et humain dans le courant dominant. En un peu plus d’un an, des millions de personnes — des développeurs aux spécialistes du marketing en passant par les cybercriminels — ont exploité la Gen AI. Cette démocratisation de l’IA a déclenché un dilemme d’utilisation double : la même technologie qui stimule la productivité arme également les attaquants.

L’IA agentique aggrave ce risque. Ces agents IA ne se contentent pas de générer du contenu ; ils poursuivent des objectifs, prennent des décisions, exécutent des tâches via des API et interagissent de manière autonome avec des systèmes et des environnements. Cette nouvelle génération d’IA a le potentiel d’automatiser des chaînes d’attaque — en scannant les vulnérabilités, en créant des vecteurs de phishing, en exfiltrant des données et même en adaptant les réponses défensives en temps réel.

La menace évolutive : Du mauvais usage de la Gen AI aux agents malveillants

Entre 2022 et 2023, les cybercriminels ont commencé à utiliser la Gen AI pour créer des malwares polymorphes, un code qui se modifie en continu pour échapper à la détection basée sur les signatures. À la même époque, un nouveau modèle malveillant, WormGPT, est apparu sur les forums de hackers. Entraîné sur des dépôts de malware et conçu sans les garde-fous éthiques présents dans les LLM, WormGPT a permis des campagnes de phishing automatisées et contextuellement conscientes.

Les acteurs de la menace utilisent même la Gen AI pour des impersonations. Un incident notable a eu lieu à Hong Kong, où des escrocs ont utilisé la technologie des deepfakes pour reproduire la ressemblance et la voix du CFO d’une entreprise lors d’un appel vidéo. La tromperie était si convaincante qu’elle a conduit un employé à transférer plus de 25 millions de dollars aux fraudeurs.

Ce risque est aggravé par l’utilisation interne de la Gen AI au sein des entreprises. Cela a intensifié la problématique de la Shadow AI, qui entraîne souvent l’exposition de données en raison de l’utilisation non autorisée d’outils de Gen AI par des employés sans la connaissance, l’approbation ou la supervision explicite des équipes informatiques ou de sécurité de l’organisation.

Repensons la défense cybernétique : L’IA comme multiplicateur de force

Ces défis obligent les organisations à repenser non seulement leurs outils, mais aussi leur philosophie de sécurité. Les défenses périmétriques traditionnelles et les modèles de détection basés sur les signatures sont inadéquats face à des attaques dynamiques, contextuelles et de plus en plus automatisées. Dans ce contexte, les équipes de sécurité doivent agir sur plusieurs fronts.

Transformer l’IA générative et l’IA agentique en alliés de la cybersécurité : Les défenseurs doivent adopter l’IA non seulement comme un outil de productivité, mais aussi comme un multiplicateur de force dans la défense cybernétique. Les principaux fournisseurs de plateformes de sécurité ont intégré des LLM pour automatiser l’analyse des journaux, résumer les alertes, réduire les faux positifs et prioriser les incidents en fonction du risque commercial.

Par exemple, des copilotes IA intégrés dans XDR peuvent écrire le Kusto Query Language (KQL) au nom des analystes, générer des rapports d’incidents et recommander des étapes de remédiation. Cela a été mis en œuvre par des étudiants universitaires dans l’état de l’Oregon pour renforcer les capacités d’automatisation et apprendre rapidement à écrire des requêtes KQL plus avancées pour la chasse aux menaces.

Au-delà des LLM, des agents autonomes entrent dans l’architecture de défense. Un assistant IA conversationnel intégré à une plateforme de sécurité permet, par exemple, aux analystes d’examiner les menaces à l’aide de requêtes en langage naturel, de croiser les renseignements sur les menaces et de répondre de manière autonome aux questions d’investigation.

Les startups proposent des agents IA qui trient automatiquement les alertes et génèrent des rapports d’investigation. Ces agents sont pré-intégrés avec des outils de sécurité et connectés aux plateformes de collaboration et aux suites de productivité d’entreprise.

Réponse politique et gouvernance mondiale

Réfléchissant à la reconnaissance croissante de l’impact systémique de l’IA, les gouvernements du monde entier passent de directives exploratoires à des mandats applicables. Plus de 1 000 réglementations liées à l’IA ont été adoptées dans 69 pays, avec les États-Unis introduisant 59 en 2024 — marquant une augmentation de 2,5 fois par rapport à 2023. Ces cadres deviennent de plus en plus spécifiques au secteur et par niveaux de risque, mettant l’accent sur la transparence, la sécurité et la responsabilité.

Ces développements — tant dans les économies avancées que dans les économies émergentes — soulignent l’urgence partagée d’aligner l’innovation en matière d’IA avec des garde-fous sociétaux, l’équité et un déploiement responsable.

Vers une culture cyber-consciente et native de l’IA

La transition la plus importante n’est pas seulement technologique, mais culturelle. Les équipes de sécurité doivent cesser de considérer l’IA comme un problème externe à défendre et commencer à la traiter comme une capacité interne à maîtriser. Les organisations les plus résilientes sur le plan cybernétique seront celles qui établiront une gouvernance interne solide des modèles, permettront un contrôle humain et formeront leur personnel à l’ingénierie des prompts, au raisonnement basé sur les données et à la validation du comportement des agents.

Nous entrons dans une nouvelle ère où les défenses doivent être adaptatives, natives de l’IA et alignées sur l’humain. L’avenir de la cybersécurité ne sera pas façonné par les hackers ou les agents, mais par les choix que les dirigeants font aujourd’hui.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...