Nuove Ricerche sulla Gestione del Rischio AI nel 2026

Nuovo Rapporto sulla Gestione del Rischio AI 2026

La comunità ha rilasciato un rapporto intitolato “Stato della Gestione del Rischio AI 2026”, basato su un sondaggio condotto su oltre 650 leader senior della cybersecurity aziendale in Nord America e Europa. Il rapporto rivela un divario crescente tra la percezione della prontezza alla sicurezza dell’AI e i punti ciechi operativi creati dall’AI non autorizzata e dalle nuove vulnerabilità introdotte dallo sviluppo guidato dall’AI.

Risultati Chiave del Rapporto

La ricerca identifica diverse tendenze sistemiche che stanno plasmando la sicurezza AI nelle aziende:

  • L’AI Non Autorizzata Sta Diventando la Normativa: Più del 59% dei leader della sicurezza conferma o sospetta che i dipendenti stiano utilizzando strumenti AI non approvati dai team IT o di sicurezza, indicando che l’adozione decentralizzata dell’AI sta superando i processi di governance.
  • Il Codice Generato dall’AI Aumenta l’Esposizione al Rischio: Quasi tre quarti (73%) delle organizzazioni affermano che lo sviluppo assistito dall’AI sta aumentando la velocità del software oltre il ritmo che i team di sicurezza possono revisionare.
  • La Frammentazione degli Strumenti Indebolisce la Postura di Sicurezza: Più della metà (51%) delle aziende utilizza 11 o più strumenti di scansione della sicurezza e gestione delle vulnerabilità, creando complessità operative che rendono difficile per i team dare priorità ai rischi più gravi.
  • I Team di Sicurezza Sono Sopraffatti dal Rumore: Quasi la metà (46%) dei rispondenti ha dichiarato di spendere tempo significativo nel triage delle vulnerabilità che alla fine non contano, mentre questioni critiche rimangono sepolte tra strumenti disconnessi.

Implicazioni e Rischi

Queste dinamiche creano quello che viene definito il “divario di fiducia”, la distanza crescente tra la percezione della prontezza alla sicurezza dell’AI e la realtà operativa di governare l’AI su scala aziendale.

La ricerca conferma che lo sviluppo assistito dall’AI è già diventato comune nei team software aziendali. Quasi tre quarti (73%) delle organizzazioni riportano un uso esteso dell’AI nei loro processi di sviluppo, mentre il 78% afferma di pilota o implementare sistemi AI agentici capaci di agire in modo autonomo.

Conclusione

Le scoperte indicano che la vera sfida non è l’adozione dell’AI stessa, ma la governance necessaria per gestirla responsabilmente su scala aziendale. Senza una supervisione più forte e una visibilità unificata sui rischi, le aziende rischiano di ampliare ulteriormente il divario tra consapevolezza delle vulnerabilità e controllo.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...