Rischi di Sicurezza dell’IA Agentica: Un’Allerta Necessaria

#Infosec2025: Crescono le preoccupazioni sui rischi per la sicurezza dell’IA agentica

Secondo esperti del settore, l’IA agentica e gli strumenti di intelligenza artificiale che si collegano tra loro senza supervisione umana pongono rischi di sicurezza crescenti. L’IA agentica, o agenti di IA, opera con un alto grado di autonomia. Un sistema agentico potrebbe scegliere il modello di IA da utilizzare, trasferire dati o risultati a un altro strumento di IA, o persino prendere decisioni senza approvazione umana.

I sistemi di IA agentica operano a una velocità maggiore rispetto ai sistemi di generazione precedente basati su modelli di linguaggio di grandi dimensioni (LLM), poiché lavorano senza la necessità che un umano dia loro istruzioni o suggerimenti. Possono anche apprendere man mano che procedono, adattando i modelli e i suggerimenti utilizzati.

Tuttavia, possono sorgere difficoltà quando le organizzazioni concatenano componenti di IA, come strumenti di IA generativa o chatbot, senza controlli aggiuntivi, o consentono agli agenti di IA di prendere decisioni autonome. Questo è già in corso all’interno delle tecnologie informatiche, in aree come la scrittura di codice e la configurazione dei sistemi.

Ciò aumenta il rischio che le implementazioni di IA delle organizzazioni stiano avanzando più rapidamente rispetto ai controlli di sicurezza.

Stato attuale della governance dell’IA

Secondo una ricerca della società di consulenza EY, solo il 31% delle organizzazioni afferma che la propria implementazione di IA è completamente matura. Inoltre, EY ha scoperto che la governance dell’IA nelle aziende è in ritardo rispetto all’innovazione dell’IA.

Questo diventa evidente con l’IA agentica, che può amplificare i rischi già identificati dalle organizzazioni con gli LLM.

I sistemi di IA agentica sono soggetti a tutti gli stessi rischi, inclusi l’iniezione di prompt, il veleno, il pregiudizio e le inaccuratezze.

Tuttavia, i problemi possono peggiorare nei casi in cui un agente trasferisce dati inaccurati, pregiudizievoli o manipolati a un altro. Anche un tasso di errore relativamente basso, di pochi punti percentuali o meno, può diventare un errore significativo se viene amplificato attraverso i sottosistemi.

La sicurezza è ulteriormente compromessa se gli strumenti di IA sono collegati a fonti di dati al di fuori del controllo dell’impresa.

“Invece che l’IA parli direttamente con gli esseri umani, sta parlando con altri sistemi di IA”, ha spiegato un esperto del settore. “Abbiamo bisogno di uno strato di sicurezza per l’IA intermedia, specialmente se si stanno raccogliendo o ingerendo informazioni dall’esterno.”

“Man mano che utilizziamo la tecnologia, essa diventa un punto debole che può essere sfruttato”, ha aggiunto.

Necessità di misure di sicurezza

Lo sviluppo rapido dell’IA agentica significa che i team di sicurezza devono lavorare rapidamente per identificare e segnalare potenziali rischi per la sicurezza.

La ricerca di EY ha rilevato che il 76% delle aziende sta già utilizzando l’IA agentica o prevede di farlo entro l’anno. Nel frattempo, solo il 56% ha affermato di essere moderatamente o completamente a conoscenza dei rischi.

“L’implementazione dell’IA è diversa dalla distribuzione delle tecnologie precedenti”, ha commentato un leader globale nel settore dell’IA responsabile. “Non è un esercizio ‘una tantum’, ma un viaggio, in cui la governance e i controlli dell’IA devono tenere il passo con gli investimenti nella funzionalità dell’IA.”

Le direzioni aziendali vorranno vedere misure per garantire l’uso sicuro dell’IA, compresa l’IA agentica.

Violazioni e rischi

Secondo un esperto di sicurezza, la rapida adozione dell’IA agentica sta spingendo le organizzazioni a rafforzare i loro controlli e le loro politiche, oltre a esaminare se i sistemi agentici aumentano la loro superficie di attacco.

“L’IA agentica non è più solo in laboratorio”, ha osservato. “Lo sviluppo del codice è un’area in cui vengono utilizzati agenti.”

“Se gli agenti scrivono codice, quel codice deve essere sicuro”, ha avvertito. “È necessario testare il codice generato dagli agenti, così come fornire agli agenti i giusti guardrail.”

Gli sviluppatori utilizzano l’IA agentica perché accelera la produzione di codice. In altre aziende, le imprese stanno utilizzando agenti per migliorare il servizio clienti e l’automazione.

Rispetto ai precedenti chatbot di servizio clienti, che esaurivano le risposte e costringevano gli utenti a passare a un agente umano, i sistemi di IA agentica sono più propensi a risolvere i problemi autonomamente.

“Gli agenti di IA stanno rapidamente rimodellando il modo in cui le aziende interagiscono con i clienti, automatizzano le operazioni e forniscono servizi”, ha affermato un esperto di cybersecurity.

Tuttavia, ciò dipende sia dagli sviluppatori degli strumenti di IA sia dai team IT che li implementano, affinché le API che collegano gli strumenti di IA siano anch’esse sicure.

“Queste interfacce non sono solo connettori tecnici, ma forniscono i legami attraverso i quali gli agenti di IA accedono ai dati, eseguono compiti e si integrano tra le piattaforme. Senza una robusta sicurezza delle API, anche la più avanzata IA diventa una vulnerabilità piuttosto che un’attività”, ha spiegato.

Come avverte un esperto, il rischio con i sistemi di IA agentica non proviene solo dai componenti stessi, ma quando i componenti vengono utilizzati insieme: “Il rischio per la sicurezza risiede nelle lacune.”

Si suggerisce di utilizzare AI red teaming per testare che qualsiasi implementazione di IA sia sicura e utilizzare strumenti come AI bills of materials per controllare quale tecnologia venga utilizzata e dove, così come documentare le connessioni e i passaggi tra gli agenti di IA.

“I CISO non hanno visibilità”, ha detto un esperto del settore. “Ecco perché abbiamo le AI bills of materials che ci permettono di vedere i modelli e i set di dati che stiamo utilizzando e le dipendenze nel nostro codice e nelle applicazioni.”

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...