Adozione dell’IA nella regione APJ e la sfida della governance
Le organizzazioni nell’area Asia-Pacifico e Giappone stanno aumentando rapidamente l’uso dell’intelligenza artificiale (IA), integrando strumenti e agenti IA nelle operazioni aziendali su larga scala. Tuttavia, nuovi dati suggeriscono che la governance, la responsabilità e i controlli identitari non stanno tenendo il passo con questa adozione.
Risultati del sondaggio sulla sicurezza dell’IA
I risultati di un sondaggio condotto in Australia, Singapore e Giappone evidenziano un divario crescente tra l’implementazione dei sistemi IA e la prontezza organizzativa nella gestione dei rischi associati. Si osserva un cambiamento regionale che sposta l’attenzione dalla sicurezza dell’accesso umano alla gestione di un numero sempre crescente di identità non umane, compresi agenti IA, bot e account di servizio.
Responsabilità poco chiare
Un tema ricorrente nei risultati del sondaggio è la mancanza di una chiara responsabilità per i rischi di sicurezza legati all’IA. Solo il 10% dei rispondenti in Australia ha dichiarato che i propri sistemi identitari sono completamente in grado di proteggere identità non umane, mentre il 52% ha affermato che sono parzialmente equipaggiati. Inoltre, il 41% ha segnalato che non esiste una persona o un team responsabile della sicurezza dell’IA.
Livelli simili di incertezza sono stati riportati anche a Singapore e Giappone, evidenziando che la responsabilità per i rischi dell’IA è spesso dispersa tra più funzioni o non è chiaramente definita. Questa frammentazione contribuisce alla crescita del “shadow AI”, ovvero l’uso di strumenti IA non approvati o non supervisionati all’interno delle organizzazioni, identificato come la principale preoccupazione di sicurezza.
Preparazione dei sistemi identitari
Il sondaggio ha anche messo in luce una diffusa mancanza di preparazione nei sistemi di gestione identitaria e accesso attuali. In Australia, Singapore e Giappone, meno del 10% dei rispondenti ha affermato che i propri sistemi identitari sono completamente attrezzati per gestire e proteggere identità non umane. La maggior parte delle organizzazioni ha descritto le proprie capacità identitarie come solo parzialmente preparate, indicando che la maggior parte degli ambienti non si è ancora adattata alla scala e complessità dell’accesso guidato dall’IA.
Consapevolezza e coinvolgimento a livello dirigenziale
La consapevolezza del rischio di sicurezza legato all’IA sta crescendo a livello dirigenziale, sebbene il coinvolgimento vari da paese a paese. In Australia, il 70% dei consigli di amministrazione è a conoscenza dei rischi di sicurezza legati all’IA, ma solo il 28% è considerato completamente impegnato. A Singapore, la consapevolezza è al 50%, con il 31% completamente impegnato. Il Giappone ha registrato i livelli più alti di consapevolezza (78%) e impegno (43%).
Conclusioni
In sintesi, i risultati evidenziano uno squilibrio tra la velocità di adozione dell’IA e la preparazione organizzativa per governarla. Sebbene gli agenti IA e i sistemi automatizzati siano sempre più integrati nei flussi di lavoro, molte organizzazioni mancano di strutture di responsabilità chiare, visibilità sufficiente e controlli identitari maturi per gestirli efficacemente. La consapevolezza del rischio legato all’IA sta crescendo, ma i modelli di governance stanno ancora adattandosi alle realtà dei sistemi guidati dall’IA.