AI Adoption Research: Come l’uso diffuso dell’IA sta trasformando la governance della sicurezza
Un nuovo rapporto rivela che gli agenti IA, le integrazioni e le piattaforme di sviluppo native IA stanno guadagnando terreno, sollevando nuove e critiche sfide per la governance della sicurezza.
Introduzione alla ricerca
Il rapporto intitolato “AI Adoption in Practice: What Enterprise Usage Data Reveals About Risk and Governance” fornisce approfondimenti sull’adozione e i modelli di utilizzo dell’IA nella forza lavoro. La ricerca ha mostrato che l’uso dell’IA è andato oltre la fase di sperimentazione e gli strumenti di chat generali, integrandosi ora nei flussi di lavoro e nelle piattaforme aziendali fondamentali, e diventando sempre più capace di prendere azioni autonome.
Secondo un esperto del settore, “l’adozione dell’IA non è più sperimentale; è operativa”. Questo cambiamento implica che la governance dell’IA non può più essere reattiva o basata solo su policy, ma richiede una visibilità in tempo reale sugli strumenti IA in uso, su come sono integrati con i sistemi critici e su dove fluiscono i dati sensibili.
Principali risultati della ricerca
- L’uso dei principali fornitori di LLM è quasi universale, con OpenAI presente nel 96% delle organizzazioni e Anthropic nel 77,8%.
- Gli strumenti IA più utilizzati si stanno diversificando oltre la chat, includendo intelligenza per le riunioni, presentazioni e programmazione.
- Gli strumenti agentici stanno emergendo, con strumenti come Manus, Lindy e Agent.ai che iniziano a farsi notare.
- Le integrazioni sono prevalenti e variegate, con OpenAI e Anthropic comunemente integrati con suite di produttività e sistemi di gestione della conoscenza.
- L’uso è concentrato, con OpenAI che rappresenta il 67% del volume di prompt osservati.
- I rischi legati ai dati sensibili tendono a concentrarsi su segreti e credenziali, con eventi di dati sensibili che includono segreti (47,9%) e informazioni finanziarie (36,3%).
Implicazioni e rischi della governance dell’IA
La governance dell’IA è emersa come una priorità assoluta per i leader della sicurezza e del rischio, ma molti programmi rimangono focalizzati su approvazioni dei fornitori e politiche di uso accettabile. Questi controlli, sebbene necessari, non sono sufficienti. I rischi più significativi ora derivano dall’uso quotidiano degli strumenti IA da parte dei dipendenti.
Comprendere le intersezioni tra persone, permessi e piattaforme è fondamentale per una governance efficace dell’IA.
Conclusione
In sintesi, con l’adozione dell’IA che continua a crescere nelle organizzazioni, è essenziale sviluppare processi di governance che siano continui e adattivi, piuttosto che limitarsi a audit una tantum. La comprensione dell’uso pratico dell’IA e dei dati sensibili è cruciale per mitigare i rischi e garantire una governance efficace.