Expansion de l’infrastructure critique par l’IA agentique
À la fin de l’hiver, deux développements importants sont survenus en l’espace de quelques semaines. L’un des développements a été l’expansion par une entreprise d’un agent d’IA santé, intégré à un service médical, à plus de 200 millions de membres, conférant à ce système une autorité autonome pour interpréter les résultats de laboratoire, gérer les rendez-vous et soutenir les prescriptions sans intervention clinique dans chaque interaction de routine.
En parallèle, un rapport de menaces a révélé que le temps moyen nécessaire à un attaquant pour obtenir un accès initial et commencer à se déplacer latéralement dans un réseau avait chuté à moins de 30 minutes, avec des cas mesurés en secondes.
Les défis d’un modèle de sécurité évolutif
Ces deux développements illustrent des courbes qui se croisent désormais, laissant un espace largement non gouverné entre elles. L’IA agentique, un logiciel qui ne se contente pas de répondre à des requêtes mais prend des actions autonomes, a évolué d’un programme pilote à une infrastructure opérationnelle en peu plus d’un an.
Dans le secteur de la santé, les agents d’IA sont intégrés dans le soutien à la décision clinique, le routage des patients, l’interprétation des résultats de laboratoire et la gestion des médicaments. Dans les services financiers, ils gèrent la détection de fraudes, les approbations de prêts et les décisions de trading en temps réel.
Un nouveau paysage de menaces
Un agent compromis au sein du flux de travail clinique d’un hôpital ne constitue pas un incident de malware traditionnel, mais un décideur corrompu opérant à l’intérieur d’une infrastructure critique. Un attaquant n’a pas nécessairement besoin de violer le réseau sous-jacent ; il lui suffit d’atteindre l’agent. Dans certains cas, il peut même injecter des instructions malveillantes dans le contenu traité par l’agent, induisant ainsi ce dernier à prendre des actions autonomes nuisibles.
Un rapport sur les menaces a mis en évidence une réduction du temps de rupture des attaquants à moins de 30 minutes, les adversaires utilisant l’IA pour automatiser la reconnaissance, accélérer l’identification des vulnérabilités et exécuter des mouvements latéraux avant que la plupart des centres d’opérations de sécurité aient achevé leur triage initial.
Réponses réglementaires et recommandations
Le gouvernement fédéral a commencé à s’attaquer sérieusement à ce problème. Des cadres de responsabilité pour l’IA dans les infrastructures critiques ont été publiés, abordant tous les secteurs critiques et les rôles des parties prenantes.
Pour réduire le risque, plusieurs changements sont suggérés. Premièrement, des exigences de sécurité minimales obligatoires pour les agents d’IA déployés dans les infrastructures critiques devraient être mises en place, incluant des protections contre les injections de prompts et des mécanismes de dépassement humain documentés pour les décisions importantes.
Deuxièmement, les opérateurs d’infrastructures critiques dans les secteurs à haute conséquence devraient être tenus de réaliser des évaluations des risques spécifiques aux IA, conformément aux recommandations existantes. Enfin, les agences de gestion des risques sectoriels devraient recevoir l’autorité et les ressources nécessaires pour évaluer les déploiements d’agents d’IA.
Conclusion
Le déploiement de l’IA se fait à une vitesse de marché, tandis que la gouvernance évolue plus lentement, créant un écart dangereux. Il est crucial d’établir des normes avant qu’un adversaire ne démontre, à grande échelle, les conséquences d’une absence de régulation.