Strumento di governance per agenti AI lanciato da Entro

Entro lancia uno strumento di governance per agenti AI per le imprese

È stato lanciato un prodotto di governance progettato per aiutare le aziende a monitorare e controllare come gli agenti di intelligenza artificiale si connettono ai sistemi aziendali, mentre le imprese faticano a comprendere quali strumenti sono in uso, quali dati possono accedere e quali identità ci sono dietro di essi.

Descrizione del prodotto

Il prodotto, denominato Agentic Governance & Administration, è rivolto ai team di sicurezza e identità che gestiscono l’uso crescente di assistenti AI, piattaforme per agenti e agenti eseguiti localmente negli ambienti aziendali.

Affronta un problema emergente mentre le organizzazioni adottano rapidamente strumenti AI: l’accesso spesso inizia con una semplice connessione effettuata da uno sviluppatore, un dipendente o un team aziendale, ma la supervisione di tali collegamenti può essere in ritardo. Questo lascia i team di sicurezza a cercare di determinare quali applicazioni e sistemi un agente AI può raggiungere, quali permessi ha e se tali permessi sono ancora appropriati.

Principi di governance

Il prodotto applica i principi consolidati di governance dell’identità all’accesso relativo agli AI, inclusi inventario, proprietà, accesso con il minimo privilegio, auditabilità e enforcement. Si sostiene che gli strumenti di governance dell’identità convenzionali non affrontino pienamente gli agenti AI, poiché l’entità che agisce è spesso un servizio, un agente locale o un processo software che utilizza token, account di servizio o chiavi API.

Struttura del sistema

Il sistema costruisce quello che viene descritto come un profilo dell’agente AI combinando tre set di dati: le fonti in cui gli agenti sono identificati, gli obiettivi aziendali che toccano e le identità utilizzate per accedervi.

Le fonti includono la telemetria dei terminali, le piattaforme di sviluppo degli agenti, gli ambienti cloud in cui vengono utilizzate identità non umane e i server MCP. Gli obiettivi comprendono le applicazioni aziendali, le risorse e i sistemi con cui un agente interagisce. Le identità includono account umani e non umani, così come i segreti utilizzati per autenticare l’accesso.

Rilevamento dell’AI non autorizzata

Una parte del prodotto è progettata per scoprire ciò che viene definito shadow AI. Questo include non solo l’uso non autorizzato di software AI e strumenti di modelli linguistici, ma anche agenti eseguiti localmente, client AI basati su workstation e agenti creati all’interno delle piattaforme di cloud e sviluppo agenti.

Il prodotto si integra con strumenti di rilevamento e risposta agli endpoint per identificare i client AI e i runtime locali sui dispositivi dei dipendenti. Si collega anche con fonderie di agenti e fornitori di servizi cloud per trovare agenti e le identità non umane di cui dipendono.

Monitoraggio e enforcement

La seconda parte si concentra sul monitoraggio e sull’enforcement. Si afferma che il prodotto fornisce visibilità sull’attività MCP, gli strumenti invocati dagli agenti e i servizi a cui si connettono durante l’esecuzione. Fornisce anche controlli di policy per i target MCP approvati e il comportamento dei client AI, insieme a registri di audit che mostrano attività consentite e bloccate, e controlli destinati a ridurre l’esposizione di dati e segreti sensibili.

Conclusione

Il lancio di questo strumento evidenzia come i fornitori di gestione dell’identità si stiano adattando alla diffusione di sistemi AI autonomi e semi-autonomi all’interno delle grandi organizzazioni. Gli strumenti tradizionali di governance dell’identità sono stati progettati principalmente attorno agli utenti umani e ai modelli di accesso alle applicazioni consolidate. Gli agenti AI, al contrario, possono essere distribuiti rapidamente, funzionare continuamente e modificare il loro comportamento o la loro portata man mano che i team aggiungono integrazioni e automatizzano attività.

Per i team di sicurezza, ciò crea una sfida di governance che attraversa la sicurezza degli endpoint, la visibilità cloud e la gestione delle identità. Il nuovo prodotto è destinato a riunire questi aspetti mentre le organizzazioni cercano di stabilire delle linee guida sull’uso dell’AI senza bloccare completamente l’adozione.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...