#Infosec2025: Crescono le preoccupazioni sui rischi per la sicurezza dell’IA agentica
Secondo esperti del settore, l’IA agentica e gli strumenti di intelligenza artificiale che si collegano tra loro senza supervisione umana pongono rischi di sicurezza crescenti. L’IA agentica, o agenti di IA, opera con un alto grado di autonomia. Un sistema agentico potrebbe scegliere il modello di IA da utilizzare, trasferire dati o risultati a un altro strumento di IA, o persino prendere decisioni senza approvazione umana.
I sistemi di IA agentica operano a una velocità maggiore rispetto ai sistemi di generazione precedente basati su modelli di linguaggio di grandi dimensioni (LLM), poiché lavorano senza la necessità che un umano dia loro istruzioni o suggerimenti. Possono anche apprendere man mano che procedono, adattando i modelli e i suggerimenti utilizzati.
Tuttavia, possono sorgere difficoltà quando le organizzazioni concatenano componenti di IA, come strumenti di IA generativa o chatbot, senza controlli aggiuntivi, o consentono agli agenti di IA di prendere decisioni autonome. Questo è già in corso all’interno delle tecnologie informatiche, in aree come la scrittura di codice e la configurazione dei sistemi.
Ciò aumenta il rischio che le implementazioni di IA delle organizzazioni stiano avanzando più rapidamente rispetto ai controlli di sicurezza.
Stato attuale della governance dell’IA
Secondo una ricerca della società di consulenza EY, solo il 31% delle organizzazioni afferma che la propria implementazione di IA è completamente matura. Inoltre, EY ha scoperto che la governance dell’IA nelle aziende è in ritardo rispetto all’innovazione dell’IA.
Questo diventa evidente con l’IA agentica, che può amplificare i rischi già identificati dalle organizzazioni con gli LLM.
I sistemi di IA agentica sono soggetti a tutti gli stessi rischi, inclusi l’iniezione di prompt, il veleno, il pregiudizio e le inaccuratezze.
Tuttavia, i problemi possono peggiorare nei casi in cui un agente trasferisce dati inaccurati, pregiudizievoli o manipolati a un altro. Anche un tasso di errore relativamente basso, di pochi punti percentuali o meno, può diventare un errore significativo se viene amplificato attraverso i sottosistemi.
La sicurezza è ulteriormente compromessa se gli strumenti di IA sono collegati a fonti di dati al di fuori del controllo dell’impresa.
“Invece che l’IA parli direttamente con gli esseri umani, sta parlando con altri sistemi di IA”, ha spiegato un esperto del settore. “Abbiamo bisogno di uno strato di sicurezza per l’IA intermedia, specialmente se si stanno raccogliendo o ingerendo informazioni dall’esterno.”
“Man mano che utilizziamo la tecnologia, essa diventa un punto debole che può essere sfruttato”, ha aggiunto.
Necessità di misure di sicurezza
Lo sviluppo rapido dell’IA agentica significa che i team di sicurezza devono lavorare rapidamente per identificare e segnalare potenziali rischi per la sicurezza.
La ricerca di EY ha rilevato che il 76% delle aziende sta già utilizzando l’IA agentica o prevede di farlo entro l’anno. Nel frattempo, solo il 56% ha affermato di essere moderatamente o completamente a conoscenza dei rischi.
“L’implementazione dell’IA è diversa dalla distribuzione delle tecnologie precedenti”, ha commentato un leader globale nel settore dell’IA responsabile. “Non è un esercizio ‘una tantum’, ma un viaggio, in cui la governance e i controlli dell’IA devono tenere il passo con gli investimenti nella funzionalità dell’IA.”
Le direzioni aziendali vorranno vedere misure per garantire l’uso sicuro dell’IA, compresa l’IA agentica.
Violazioni e rischi
Secondo un esperto di sicurezza, la rapida adozione dell’IA agentica sta spingendo le organizzazioni a rafforzare i loro controlli e le loro politiche, oltre a esaminare se i sistemi agentici aumentano la loro superficie di attacco.
“L’IA agentica non è più solo in laboratorio”, ha osservato. “Lo sviluppo del codice è un’area in cui vengono utilizzati agenti.”
“Se gli agenti scrivono codice, quel codice deve essere sicuro”, ha avvertito. “È necessario testare il codice generato dagli agenti, così come fornire agli agenti i giusti guardrail.”
Gli sviluppatori utilizzano l’IA agentica perché accelera la produzione di codice. In altre aziende, le imprese stanno utilizzando agenti per migliorare il servizio clienti e l’automazione.
Rispetto ai precedenti chatbot di servizio clienti, che esaurivano le risposte e costringevano gli utenti a passare a un agente umano, i sistemi di IA agentica sono più propensi a risolvere i problemi autonomamente.
“Gli agenti di IA stanno rapidamente rimodellando il modo in cui le aziende interagiscono con i clienti, automatizzano le operazioni e forniscono servizi”, ha affermato un esperto di cybersecurity.
Tuttavia, ciò dipende sia dagli sviluppatori degli strumenti di IA sia dai team IT che li implementano, affinché le API che collegano gli strumenti di IA siano anch’esse sicure.
“Queste interfacce non sono solo connettori tecnici, ma forniscono i legami attraverso i quali gli agenti di IA accedono ai dati, eseguono compiti e si integrano tra le piattaforme. Senza una robusta sicurezza delle API, anche la più avanzata IA diventa una vulnerabilità piuttosto che un’attività”, ha spiegato.
Come avverte un esperto, il rischio con i sistemi di IA agentica non proviene solo dai componenti stessi, ma quando i componenti vengono utilizzati insieme: “Il rischio per la sicurezza risiede nelle lacune.”
Si suggerisce di utilizzare AI red teaming per testare che qualsiasi implementazione di IA sia sicura e utilizzare strumenti come AI bills of materials per controllare quale tecnologia venga utilizzata e dove, così come documentare le connessioni e i passaggi tra gli agenti di IA.
“I CISO non hanno visibilità”, ha detto un esperto del settore. “Ecco perché abbiamo le AI bills of materials che ci permettono di vedere i modelli e i set di dati che stiamo utilizzando e le dipendenze nel nostro codice e nelle applicazioni.”