Rapporto sui Rischi e la Prontezza dell’IA 2026
Per la maggior parte delle organizzazioni, quest’anno l’IA diventa un’infrastruttura. Gli agenti ora eseguono azioni in modo autonomo: modificano registri, creano account e inviano codice tramite chiamate API che si completano prima che qualsiasi essere umano le revisioni. Ciò rende ogni implementazione dell’IA un rischio per la sicurezza, indipendentemente dal fatto che le organizzazioni lo trattino come tale o meno.
Gli stack di sicurezza presenti nella maggior parte delle organizzazioni oggi sono stati costruiti per un mondo diverso: uno in cui gli esseri umani erano gli unici attori, i processi erano deterministici, i dati rimanevano in forme riconoscibili e la fiducia veniva verificata nel browser. Quel mondo non esiste più.
Questo rapporto si basa su un’indagine completa di 1.253 professionisti della sicurezza informatica, esplorando i modi in cui le organizzazioni stanno proteggendo l’IA, considerando la governance, la visibilità, la protezione dei dati e il controllo degli agenti.
Risultati Chiave:
- Gli strumenti di IA sono ora implementati nel 73% delle organizzazioni intervistate, ma la governance che impone sicurezza e policy in tempo reale ha raggiunto solo il 7%. Ciò lascia un deficit strutturale di 66 punti, che si amplia mentre l’adozione dell’IA continua ad accelerare più rapidamente dei controlli.
- Il 90% ha aumentato i budget per la sicurezza dell’IA quest’anno, eppure il 29% si sente meno sicuro rispetto a dodici mesi fa. Il problema sta superando l’investimento.
- Il 94% dei rispondenti segnala lacune nella visibilità delle attività di IA. L’88% non può distinguere gli account AI personali da quelli aziendali. Solo il 6% afferma di vedere l’intera portata della pipeline di IA della propria organizzazione.
- DLP abbina schemi mentre l’IA trasforma il significato; solo l’8% ha controlli che valutano il contenuto semanticamente, indipendentemente da come è stato riscritto.
- Gli agenti IA hanno accesso in scrittura a strumenti di collaborazione (53%), email (40%), repository di codice (25%) e fornitori di identità (8%). Il 91% delle organizzazioni scopre solo dopo che un agente ha eseguito l’azione.
La Governance dell’IA è Indietro Rispetto all’Adozione
Dodici mesi fa, la maggior parte delle organizzazioni trattava la governance dell’IA come una priorità futura: qualcosa da formalizzare una volta stabilita l’adozione. L’adozione non ha aspettato. Strumenti di completamento del codice e generatori di contenuti sono stati messi in produzione in vari dipartimenti, e quando la sicurezza ha avuto un quadro in atto, l’impronta dell’IA era già operativa.
Oggi, il 68% delle organizzazioni descrive la propria governance dell’IA come reattiva o ancora in fase di sviluppo. Solo il 7% ha raggiunto una maturità avanzata con l’applicazione della policy in tempo reale. Il divario di 66 punti tra il 73% che implementa strumenti di IA e il 7% che li governa in tempo reale è uno squilibrio strutturale.
Maggiore Budget, Meno Fiducia
Paradossalmente, il divario nella governance dell’IA esiste nonostante le organizzazioni investano più che mai nella sicurezza. Il 90% ha aumentato la spesa per la sicurezza dell’IA quest’anno, eppure il 29% riporta di sentirsi meno sicuro rispetto a dodici mesi fa. Gli investimenti stanno aumentando, ma la fiducia non cresce.
La Maggior Parte delle Attività di IA è Invisibile alla Sicurezza
Si deve considerare che non si può proteggere ciò che non si vede. Solo il 6% delle organizzazioni riporta una visibilità completa sull’uso dell’IA nel proprio ambiente. Il 94% prende decisioni sulla sicurezza dell’IA con un quadro incompleto, e per la maggior parte, questo è lo stato operativo predefinito.
Agenti IA Operano Senza Supervisione
Il rischio più profondo è che i sistemi IA ora agiscono autonomamente, con molti che operano in modalità ombra al di fuori della vista della sicurezza. Il 56% riporta un’esposizione reale al rischio agentico dell’IA.
Conclusione
La sicurezza dell’IA è ora una disciplina operativa. Le dimensioni della maturità sono mappate e le azioni concrete sono disponibili. Ciò che rimane è la decisione di costruire un’infrastruttura sicura e governata per l’IA, investendo nei punti deboli identificati e chiudendo il divario di esecuzione.