Entro lancia uno strumento di governance per agenti AI per le imprese
È stato lanciato un prodotto di governance progettato per aiutare le aziende a monitorare e controllare come gli agenti di intelligenza artificiale si connettono ai sistemi aziendali, mentre le imprese faticano a comprendere quali strumenti sono in uso, quali dati possono accedere e quali identità ci sono dietro di essi.
Descrizione del prodotto
Il prodotto, denominato Agentic Governance & Administration, è rivolto ai team di sicurezza e identità che gestiscono l’uso crescente di assistenti AI, piattaforme per agenti e agenti eseguiti localmente negli ambienti aziendali.
Affronta un problema emergente mentre le organizzazioni adottano rapidamente strumenti AI: l’accesso spesso inizia con una semplice connessione effettuata da uno sviluppatore, un dipendente o un team aziendale, ma la supervisione di tali collegamenti può essere in ritardo. Questo lascia i team di sicurezza a cercare di determinare quali applicazioni e sistemi un agente AI può raggiungere, quali permessi ha e se tali permessi sono ancora appropriati.
Principi di governance
Il prodotto applica i principi consolidati di governance dell’identità all’accesso relativo agli AI, inclusi inventario, proprietà, accesso con il minimo privilegio, auditabilità e enforcement. Si sostiene che gli strumenti di governance dell’identità convenzionali non affrontino pienamente gli agenti AI, poiché l’entità che agisce è spesso un servizio, un agente locale o un processo software che utilizza token, account di servizio o chiavi API.
Struttura del sistema
Il sistema costruisce quello che viene descritto come un profilo dell’agente AI combinando tre set di dati: le fonti in cui gli agenti sono identificati, gli obiettivi aziendali che toccano e le identità utilizzate per accedervi.
Le fonti includono la telemetria dei terminali, le piattaforme di sviluppo degli agenti, gli ambienti cloud in cui vengono utilizzate identità non umane e i server MCP. Gli obiettivi comprendono le applicazioni aziendali, le risorse e i sistemi con cui un agente interagisce. Le identità includono account umani e non umani, così come i segreti utilizzati per autenticare l’accesso.
Rilevamento dell’AI non autorizzata
Una parte del prodotto è progettata per scoprire ciò che viene definito shadow AI. Questo include non solo l’uso non autorizzato di software AI e strumenti di modelli linguistici, ma anche agenti eseguiti localmente, client AI basati su workstation e agenti creati all’interno delle piattaforme di cloud e sviluppo agenti.
Il prodotto si integra con strumenti di rilevamento e risposta agli endpoint per identificare i client AI e i runtime locali sui dispositivi dei dipendenti. Si collega anche con fonderie di agenti e fornitori di servizi cloud per trovare agenti e le identità non umane di cui dipendono.
Monitoraggio e enforcement
La seconda parte si concentra sul monitoraggio e sull’enforcement. Si afferma che il prodotto fornisce visibilità sull’attività MCP, gli strumenti invocati dagli agenti e i servizi a cui si connettono durante l’esecuzione. Fornisce anche controlli di policy per i target MCP approvati e il comportamento dei client AI, insieme a registri di audit che mostrano attività consentite e bloccate, e controlli destinati a ridurre l’esposizione di dati e segreti sensibili.
Conclusione
Il lancio di questo strumento evidenzia come i fornitori di gestione dell’identità si stiano adattando alla diffusione di sistemi AI autonomi e semi-autonomi all’interno delle grandi organizzazioni. Gli strumenti tradizionali di governance dell’identità sono stati progettati principalmente attorno agli utenti umani e ai modelli di accesso alle applicazioni consolidate. Gli agenti AI, al contrario, possono essere distribuiti rapidamente, funzionare continuamente e modificare il loro comportamento o la loro portata man mano che i team aggiungono integrazioni e automatizzano attività.
Per i team di sicurezza, ciò crea una sfida di governance che attraversa la sicurezza degli endpoint, la visibilità cloud e la gestione delle identità. Il nuovo prodotto è destinato a riunire questi aspetti mentre le organizzazioni cercano di stabilire delle linee guida sull’uso dell’AI senza bloccare completamente l’adozione.