Sicurezza AI: le imprese si preparano a incidenti inevitabili

Stato della Sicurezza AI: Le Imprese si Preparano agli Incidenti AI

La sicurezza dell’AI nelle imprese è mal governata e frammentata, lasciando i rischi più critici non gestiti e gli incidenti legati all’AI considerati inevitabili. Questo è quanto emerso dal recente rapporto sullo stato della sicurezza AI.

Rischi Emergenti e Governance Inadeguata

Il rapporto rivela che il 50% degli intervistati prevede perdite di dati attraverso strumenti di AI generativa nel prossimo anno, mentre il 49% anticipa incidenti di Shadow AI e il 41% è preoccupato per minacce interne guidate dall’AI. Nonostante ciò, il 70% ammette di non avere una governance AI ottimizzata. Questi risultati mostrano che si prevedono incidenti di sicurezza significativi e che sia la governance dell’AI che l’applicazione runtime restano inadeguate per contenerli.

Modelli di Proprietà della Sicurezza AI

Il rapporto evidenzia che la sicurezza dell’AI rompe con i modelli di proprietà tipici. I CIO guidano il 29% delle imprese, seguiti dai chief data officer al 17% e dai team infrastrutturali al 15%, mentre i CISO occupano il quarto posto al 14.5%. Questo segna una deviazione dalle altre aree di sicurezza, dove di solito il CISO detiene la responsabilità principale.

Investimenti e Priorità

In termini di budget, la sicurezza della catena di fornitura AI è la principale priorità di investimento, con il 31% delle organizzazioni che la selezionano come obiettivo primario nei prossimi 12 mesi. Questo riflette il riconoscimento che il rischio si estende all’intero ecosistema AI, non solo a un singolo componente.

Governance e Monitoraggio AI

Il 70% riporta di non aver raggiunto una governance AI ottimizzata, che dovrebbe includere supervisione a livello di consiglio, monitoraggio automatizzato e politiche regolarmente aggiornate. Inoltre, il 39% non dispone di governance AI gestita o ottimizzata.

Minacce Imminenti e Preparazione

Il 50% prevede perdite di dati attraverso strumenti di AI generativa, evidenziando l’esposizione dei dati come il potenziale impatto più probabile dell’adozione dell’AI. Inoltre, il 49% prevede un incidente di Shadow AI nel prossimo anno, con il 23% che afferma di essere tra le aree meno preparate. Le principali preoccupazioni includono l’uso di strumenti di AI generativa autonomi senza approvazione IT (21%) e le funzionalità AI incorporate nelle applicazioni SaaS (18%).

Fasi Vulnerabili e Preparazione

La fase runtime è classificata come la più vulnerabile (38%) e la meno preparata (27%). Le problematiche pre-deployment, come l’integrità dei dataset (13%) e la provenienza dei modelli (12%), si collocano molto più in basso, sottolineando che gli approcci di sicurezza tradizionali “shift-left” non corrispondono a dove si concentrano i rischi dell’AI.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...