Sécuriser les agents IA : gouvernance et contrôle en entreprise

A holographic lighthouse beacon, projecting a dynamic, ever-changing network of interconnected nodes and pathways, with a central AI core that pulses with light, symbolizing the governance and oversight of both visible and hidden digital agents.

Astrix avance sa plateforme de sécurité pour agents IA afin de gouverner les agents fantômes et d’entreprise

Astrix Security a révélé une expansion majeure de sa plateforme de sécurité pour agents IA, couvrant chaque couche où les agents IA opèrent dans l’entreprise : des plateformes IA gérées aux déploiements fantômes fonctionnant sur des dispositifs gérés, détectant à la fois l’existence des agents et l’accès non autorisé aux ressources de l’entreprise, tout en appliquant des politiques sur ce que les agents sont autorisés à faire.

Les programmes de gouvernance IA ne sont pas adaptés à la vitesse à laquelle les agents sont déployés. Comme les comités de risque tiers qui n’ont jamais suivi le rythme de l’adoption des SaaS fantômes, les processus de gouvernance fonctionnent sur des cycles de révision mesurés en semaines, tandis que les agents sont déployés en quelques minutes. Au moment où une révision est terminée, un agent peut déjà être en production avec accès à des systèmes critiques, sans révision de sécurité enregistrée et sans mécanisme pour faire respecter ce qu’il est permis de faire. La visibilité sans contrôle maintient le risque en place.

Découverte complète des agents IA

L’architecture de découverte en quatre méthodes d’Astrix est conçue pour faire remonter chaque agent IA (sanctionné et fantôme), serveur MCP et identité non humaine (NHI) dans l’ensemble de la pile d’entreprise, avec le contexte nécessaire pour agir sur le risque que chacun porte.

La découverte d’Astrix fonctionne selon quatre méthodes distinctes :

Méthode 1 — Intégrations de plateformes IA. Astrix se connecte directement aux plateformes IA de l’entreprise, faisant remonter chaque agent enregistré et serveur MCP. Les plateformes couvertes englobent toutes les catégories majeures d’infrastructure agentique : assistants IA d’entreprise, services IA natifs du cloud, frameworks d’agents pour développeurs et plateformes d’automatisation agentique.

Méthode 2 — Empreinte NHI. Les agents qui n’ont jamais été enregistrés dans une plateforme IA laissent néanmoins des traces. Chaque agent s’authentifie en utilisant une NHI : une application OAuth, un compte de service, une clé API ou un PAT. Astrix surveille la couche NHI à travers l’infrastructure cloud, les fournisseurs d’identité, les plateformes SaaS et les outils DevOps, détectant les agents grâce aux identifiants qu’ils utilisent.

Méthode 3 — Télémétrie des capteurs. Astrix lit à partir des réponses à la détection des points d’extrémité (EDRs), atteignant des agents et des serveurs MCP qui ne touchent jamais une intégration de plateforme, y compris des agents fonctionnant localement.

Méthode 4 — Apportez votre propre service (BYOS). Pour des services propriétaires ou non standards, le BYOS étend la découverte au-delà du catalogue. Aucun agent ou service ne tombe en dehors de l’inventaire.

Toutes ces sources de données alimentent la plateforme Astrix, cartographiant chaque agent IA découvert et serveur MCP aux NHI sous lesquelles il opère, aux identifiants qu’il détient, aux ressources qu’il peut atteindre et au propriétaire humain responsable.

Plan de contrôle des agents (ACP) : de la visibilité à l’application

Savoir quels agents existent ne suffit pas. Astrix a également étendu son Plan de Contrôle des Agents (ACP) avec des Politiques d’Agents, un moteur de politique en temps réel qui donne aux équipes de sécurité un contrôle direct sur ce que les agents IA sont autorisés à faire. Les équipes peuvent désormais définir des règles « autoriser, signaler et bloquer » par utilisateur, département, plateforme d’agent et type de ressource.

Cela déplace les entreprises de la découverte à l’application : de la connaissance de l’existence des agents à la maîtrise de ce qu’ils peuvent faire. Associé à l’architecture de découverte en quatre méthodes d’Astrix, les Politiques d’Agents comblent le dernier écart entre la découverte de chaque agent dans l’entreprise et la gouvernance de ce que chacun est autorisé à faire.

Un inventaire complet des agents et des contrôles de politique en temps réel sont également la base de la productivité IA au sein de l’entreprise. Sans savoir quels agents ils ont et gouverner ce que ces agents peuvent faire, les entreprises ne peuvent pas décider lesquels de ces agents leur font confiance, lesquels étendre ou comment transformer des déploiements IA isolés en quelque chose sur lequel toute l’organisation peut s’appuyer.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...