Stato della Sicurezza AI: Le Imprese si Preparano agli Incidenti AI
La sicurezza dell’AI nelle imprese è mal governata e frammentata, lasciando i rischi più critici non gestiti e gli incidenti legati all’AI considerati inevitabili. Questo è quanto emerso dal recente rapporto sullo stato della sicurezza AI.
Rischi Emergenti e Governance Inadeguata
Il rapporto rivela che il 50% degli intervistati prevede perdite di dati attraverso strumenti di AI generativa nel prossimo anno, mentre il 49% anticipa incidenti di Shadow AI e il 41% è preoccupato per minacce interne guidate dall’AI. Nonostante ciò, il 70% ammette di non avere una governance AI ottimizzata. Questi risultati mostrano che si prevedono incidenti di sicurezza significativi e che sia la governance dell’AI che l’applicazione runtime restano inadeguate per contenerli.
Modelli di Proprietà della Sicurezza AI
Il rapporto evidenzia che la sicurezza dell’AI rompe con i modelli di proprietà tipici. I CIO guidano il 29% delle imprese, seguiti dai chief data officer al 17% e dai team infrastrutturali al 15%, mentre i CISO occupano il quarto posto al 14.5%. Questo segna una deviazione dalle altre aree di sicurezza, dove di solito il CISO detiene la responsabilità principale.
Investimenti e Priorità
In termini di budget, la sicurezza della catena di fornitura AI è la principale priorità di investimento, con il 31% delle organizzazioni che la selezionano come obiettivo primario nei prossimi 12 mesi. Questo riflette il riconoscimento che il rischio si estende all’intero ecosistema AI, non solo a un singolo componente.
Governance e Monitoraggio AI
Il 70% riporta di non aver raggiunto una governance AI ottimizzata, che dovrebbe includere supervisione a livello di consiglio, monitoraggio automatizzato e politiche regolarmente aggiornate. Inoltre, il 39% non dispone di governance AI gestita o ottimizzata.
Minacce Imminenti e Preparazione
Il 50% prevede perdite di dati attraverso strumenti di AI generativa, evidenziando l’esposizione dei dati come il potenziale impatto più probabile dell’adozione dell’AI. Inoltre, il 49% prevede un incidente di Shadow AI nel prossimo anno, con il 23% che afferma di essere tra le aree meno preparate. Le principali preoccupazioni includono l’uso di strumenti di AI generativa autonomi senza approvazione IT (21%) e le funzionalità AI incorporate nelle applicazioni SaaS (18%).
Fasi Vulnerabili e Preparazione
La fase runtime è classificata come la più vulnerabile (38%) e la meno preparata (27%). Le problematiche pre-deployment, come l’integrità dei dataset (13%) e la provenienza dei modelli (12%), si collocano molto più in basso, sottolineando che gli approcci di sicurezza tradizionali “shift-left” non corrispondono a dove si concentrano i rischi dell’AI.