Accelerazione dell’IA in APJ: sfide di governance e sicurezza

Adozione dell’IA nella regione APJ e la sfida della governance

Le organizzazioni nell’area Asia-Pacifico e Giappone stanno aumentando rapidamente l’uso dell’intelligenza artificiale (IA), integrando strumenti e agenti IA nelle operazioni aziendali su larga scala. Tuttavia, nuovi dati suggeriscono che la governance, la responsabilità e i controlli identitari non stanno tenendo il passo con questa adozione.

Risultati del sondaggio sulla sicurezza dell’IA

I risultati di un sondaggio condotto in Australia, Singapore e Giappone evidenziano un divario crescente tra l’implementazione dei sistemi IA e la prontezza organizzativa nella gestione dei rischi associati. Si osserva un cambiamento regionale che sposta l’attenzione dalla sicurezza dell’accesso umano alla gestione di un numero sempre crescente di identità non umane, compresi agenti IA, bot e account di servizio.

Responsabilità poco chiare

Un tema ricorrente nei risultati del sondaggio è la mancanza di una chiara responsabilità per i rischi di sicurezza legati all’IA. Solo il 10% dei rispondenti in Australia ha dichiarato che i propri sistemi identitari sono completamente in grado di proteggere identità non umane, mentre il 52% ha affermato che sono parzialmente equipaggiati. Inoltre, il 41% ha segnalato che non esiste una persona o un team responsabile della sicurezza dell’IA.

Livelli simili di incertezza sono stati riportati anche a Singapore e Giappone, evidenziando che la responsabilità per i rischi dell’IA è spesso dispersa tra più funzioni o non è chiaramente definita. Questa frammentazione contribuisce alla crescita del “shadow AI”, ovvero l’uso di strumenti IA non approvati o non supervisionati all’interno delle organizzazioni, identificato come la principale preoccupazione di sicurezza.

Preparazione dei sistemi identitari

Il sondaggio ha anche messo in luce una diffusa mancanza di preparazione nei sistemi di gestione identitaria e accesso attuali. In Australia, Singapore e Giappone, meno del 10% dei rispondenti ha affermato che i propri sistemi identitari sono completamente attrezzati per gestire e proteggere identità non umane. La maggior parte delle organizzazioni ha descritto le proprie capacità identitarie come solo parzialmente preparate, indicando che la maggior parte degli ambienti non si è ancora adattata alla scala e complessità dell’accesso guidato dall’IA.

Consapevolezza e coinvolgimento a livello dirigenziale

La consapevolezza del rischio di sicurezza legato all’IA sta crescendo a livello dirigenziale, sebbene il coinvolgimento vari da paese a paese. In Australia, il 70% dei consigli di amministrazione è a conoscenza dei rischi di sicurezza legati all’IA, ma solo il 28% è considerato completamente impegnato. A Singapore, la consapevolezza è al 50%, con il 31% completamente impegnato. Il Giappone ha registrato i livelli più alti di consapevolezza (78%) e impegno (43%).

Conclusioni

In sintesi, i risultati evidenziano uno squilibrio tra la velocità di adozione dell’IA e la preparazione organizzativa per governarla. Sebbene gli agenti IA e i sistemi automatizzati siano sempre più integrati nei flussi di lavoro, molte organizzazioni mancano di strutture di responsabilità chiare, visibilità sufficiente e controlli identitari maturi per gestirli efficacemente. La consapevolezza del rischio legato all’IA sta crescendo, ma i modelli di governance stanno ancora adattandosi alle realtà dei sistemi guidati dall’IA.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...