Outil de gouvernance des agents IA lancé par Entro pour les entreprises

A holographic, ever-evolving neural network sculpture that adapts in real-time to represent the dynamic governance decisions made by AI agents within an enterprise.

Lancement d’un outil de gouvernance pour agents d’IA

Un nouveau produit de gouvernance a été lancé pour aider les entreprises à suivre et contrôler la manière dont les agents d’intelligence artificielle se connectent aux systèmes d’entreprise. Ce produit répond à un besoin croissant des entreprises qui peinent à comprendre quels outils sont utilisés, quelles données peuvent être accessibles et quelles identités se cachent derrière ces connexions.

Présentation du produit

Le produit, appelé Agentic Governance & Administration (AGA), cible les équipes de sécurité et d’identité qui gèrent l’utilisation croissante des assistants IA, des plateformes d’agents et des agents exécutés localement dans les environnements d’entreprise.

Avec l’adoption rapide des outils d’IA, l’accès commence souvent par une connexion simple effectuée par un développeur ou un membre de l’équipe, mais la supervision de ces connexions peut prendre du retard. Cela laisse les équipes de sécurité dans l’incertitude concernant les applications et systèmes auxquels un agent d’IA peut accéder, ainsi que les permissions associées.

Fonctionnalités du produit

AGA applique des principes de gouvernance d’identité établis aux accès liés à l’IA, tels que l’inventaire, la propriété, l’accès au moindre privilège, l’auditabilité et l’application. Contrairement aux outils de gouvernance d’identité traditionnels, AGA traite les agents d’IA qui ne sont pas des utilisateurs humains, mais des services ou des processus utilisant des jetons, des comptes de service ou des clés API.

Le système construit un profil d’agent d’IA en combinant trois ensembles de données : les sources où les agents sont identifiés, les cibles d’entreprise qu’ils touchent et les identités utilisées pour y accéder.

Gestion des risques

L’un des aspects du produit est conçu pour découvrir ce qui est appelé IA fantôme, qui inclut l’utilisation non autorisée de logiciels d’IA et d’outils de modèles linguistiques, ainsi que des agents exécutés localement. AGA s’intègre aux outils de détection et de réponse pour identifier les clients d’IA sur les appareils des employés.

Surveillance et conformité

Le produit offre également une visibilité sur l’activité des agents et les outils qu’ils invoquent, ainsi que les services auxquels ils se connectent. Il fournit des contrôles de politique pour les cibles approuvées et le comportement des clients d’IA, tout en créant des pistes de vérification pour les activités autorisées et bloquées.

Cette approche reflète un changement plus large dans la sécurité d’entreprise, où la découverte seule ne suffit plus. Les équipes de sécurité souhaitent désormais savoir non seulement qu’un outil d’IA existe, mais aussi s’il fonctionne dans un cadre de politique approprié.

Conclusion

Le lancement de cet outil illustre comment les fournisseurs de gestion des identités s’adaptent à l’essor des systèmes d’IA autonomes et semi-autonomes au sein des grandes organisations. AGA vise à aider les équipes de sécurité à cartographier les connexions IA, à examiner les permissions et à appliquer des politiques à mesure que l’utilisation de l’IA se développe dans les systèmes d’entreprise.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...