Protection des conversations IA avec le protocole de contexte de modèle
Lors de l’intégration des agents Microsoft 365 Copilot, un moyen simple de se connecter aux outils et données a été mis en place avec le protocole de contexte de modèle (MCP). Ce changement a entraîné des réponses plus précises et une accélération des livraisons, tout en favorisant de nouveaux schémas de développement au sein des équipes.
Cependant, cette facilité de communication entraîne des responsabilités. Des questions se posent : qui est autorisé à parler ? Que peuvent-ils dire ? Et quelles informations ne doivent jamais être divulguées ? L’organisation de la sécurité informatique et l’équipe en charge de la sécurité de l’information s’appuient sur ces questions pour façonner leur stratégie autour de l’utilisation du MCP.
Compréhension du MCP et nécessité de la sécurité
Le MCP est un standard simplifié permettant aux systèmes d’IA de communiquer avec les bons outils et données sans nécessiter d’intégration personnalisée. Cette standardisation offre rapidité et flexibilité, mais modifie également l’équation de la sécurité. Avant le MCP, chaque intégration était une conversation isolée. Maintenant, un modèle peut débloquer de nombreux systèmes, ce qui crée à la fois des opportunités et des risques.
Évaluation de la sécurité du MCP à travers quatre couches
Chaque session MCP crée un graphe de conversation, où un agent découvre un serveur, ingère ses descriptions d’outils, ajoute des informations d’identification et un contexte, puis commence à envoyer des requêtes. Chaque étape — métadonnées, identité, contenu et code — introduit un risque potentiel. Ces risques sont évalués à travers quatre couches pour détecter rapidement les échecs :
- Couche des applications et des agents
Cette couche est là où l’intention de l’utilisateur rencontre l’exécution. Les agents analysent les requêtes, découvrent des outils et demandent des modifications. Les problèmes potentiels incluent le « poisonnement d’outils » et les « échanges silencieux », où un outil modifie ses métadonnées sans que le client ne s’en aperçoive. - Couche de la plateforme IA
Elle comprend les modèles et les environnements d’exécution qui interprètent les requêtes. Les risques ici incluent des dérives dans la chaîne d’approvisionnement des modèles et des injections de requêtes via le texte des outils. - Couche de données
Cette couche couvre les données commerciales, fichiers et secrets accessibles par la conversation. Les problèmes incluent le partage excessif de contexte et des informations d’identification mal configurées. - Couche d’infrastructure
Elle comprend les environnements de calcul, réseau et d’exécution. Les risques potentiels incluent des serveurs locaux ayant trop d’accès et des points de terminaison en nuage sans passerelle.
Stratégie de sécurité par défaut
La stratégie de sécurité commence par la fermeture des accès non sécurisés. Chaque serveur distant MCP doit être enregistré derrière une passerelle API, assurant l’authentification et l’autorisation. Les équipes choisissent parmi une liste de serveurs MCP approuvés, et des mesures d’identité exigent des jetons à durée de vie courte avec des autorisations minimales.
Gouvernance des agents dans des scénarios de développement
Les créateurs peuvent se déplacer rapidement tout en intégrant des contrôles de sécurité. Une gouvernance intégrée permet aux équipes d’innover sans entrave tout en maintenant des normes de sécurité.
Conclusion
Le MCP standardise la communication entre les agents et les outils, avec une architecture sécurisée par défaut, un processus de validation rigoureux et une gestion dynamique des serveurs. Cela permet aux équipes de livrer plus rapidement tout en maintenant la gouvernance et la sécurité à chaque étape.