Rischi e Prontezza nell’AI: Report 2026

Rapporto sui Rischi e la Prontezza dell’IA 2026

Per la maggior parte delle organizzazioni, quest’anno l’IA diventa un’infrastruttura. Gli agenti ora eseguono azioni in modo autonomo: modificano registri, creano account e inviano codice tramite chiamate API che si completano prima che qualsiasi essere umano le revisioni. Ciò rende ogni implementazione dell’IA un rischio per la sicurezza, indipendentemente dal fatto che le organizzazioni lo trattino come tale o meno.

Gli stack di sicurezza presenti nella maggior parte delle organizzazioni oggi sono stati costruiti per un mondo diverso: uno in cui gli esseri umani erano gli unici attori, i processi erano deterministici, i dati rimanevano in forme riconoscibili e la fiducia veniva verificata nel browser. Quel mondo non esiste più.

Questo rapporto si basa su un’indagine completa di 1.253 professionisti della sicurezza informatica, esplorando i modi in cui le organizzazioni stanno proteggendo l’IA, considerando la governance, la visibilità, la protezione dei dati e il controllo degli agenti.

Risultati Chiave:

  • Gli strumenti di IA sono ora implementati nel 73% delle organizzazioni intervistate, ma la governance che impone sicurezza e policy in tempo reale ha raggiunto solo il 7%. Ciò lascia un deficit strutturale di 66 punti, che si amplia mentre l’adozione dell’IA continua ad accelerare più rapidamente dei controlli.
  • Il 90% ha aumentato i budget per la sicurezza dell’IA quest’anno, eppure il 29% si sente meno sicuro rispetto a dodici mesi fa. Il problema sta superando l’investimento.
  • Il 94% dei rispondenti segnala lacune nella visibilità delle attività di IA. L’88% non può distinguere gli account AI personali da quelli aziendali. Solo il 6% afferma di vedere l’intera portata della pipeline di IA della propria organizzazione.
  • DLP abbina schemi mentre l’IA trasforma il significato; solo l’8% ha controlli che valutano il contenuto semanticamente, indipendentemente da come è stato riscritto.
  • Gli agenti IA hanno accesso in scrittura a strumenti di collaborazione (53%), email (40%), repository di codice (25%) e fornitori di identità (8%). Il 91% delle organizzazioni scopre solo dopo che un agente ha eseguito l’azione.

La Governance dell’IA è Indietro Rispetto all’Adozione

Dodici mesi fa, la maggior parte delle organizzazioni trattava la governance dell’IA come una priorità futura: qualcosa da formalizzare una volta stabilita l’adozione. L’adozione non ha aspettato. Strumenti di completamento del codice e generatori di contenuti sono stati messi in produzione in vari dipartimenti, e quando la sicurezza ha avuto un quadro in atto, l’impronta dell’IA era già operativa.

Oggi, il 68% delle organizzazioni descrive la propria governance dell’IA come reattiva o ancora in fase di sviluppo. Solo il 7% ha raggiunto una maturità avanzata con l’applicazione della policy in tempo reale. Il divario di 66 punti tra il 73% che implementa strumenti di IA e il 7% che li governa in tempo reale è uno squilibrio strutturale.

Maggiore Budget, Meno Fiducia

Paradossalmente, il divario nella governance dell’IA esiste nonostante le organizzazioni investano più che mai nella sicurezza. Il 90% ha aumentato la spesa per la sicurezza dell’IA quest’anno, eppure il 29% riporta di sentirsi meno sicuro rispetto a dodici mesi fa. Gli investimenti stanno aumentando, ma la fiducia non cresce.

La Maggior Parte delle Attività di IA è Invisibile alla Sicurezza

Si deve considerare che non si può proteggere ciò che non si vede. Solo il 6% delle organizzazioni riporta una visibilità completa sull’uso dell’IA nel proprio ambiente. Il 94% prende decisioni sulla sicurezza dell’IA con un quadro incompleto, e per la maggior parte, questo è lo stato operativo predefinito.

Agenti IA Operano Senza Supervisione

Il rischio più profondo è che i sistemi IA ora agiscono autonomamente, con molti che operano in modalità ombra al di fuori della vista della sicurezza. Il 56% riporta un’esposizione reale al rischio agentico dell’IA.

Conclusione

La sicurezza dell’IA è ora una disciplina operativa. Le dimensioni della maturità sono mappate e le azioni concrete sono disponibili. Ciò che rimane è la decisione di costruire un’infrastruttura sicura e governata per l’IA, investendo nei punti deboli identificati e chiudendo il divario di esecuzione.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...