Il nuovo modello di governance dell’IA che mette in guardia sul Shadow ITh2>
Gli strumenti di b>intelligenza artificiale (IA)b> si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Dai team di marketing che redigono campagne in ChatGPT agli ingegneri del software che sperimentano con i generatori di codice, l’IA sta lentamente penetrando in ogni angolo delle operazioni aziendali. Tuttavia, gran parte dell’adozione dell’IA avviene sotto il radar, senza alcun controllo o governance appropriati.p>
Di conseguenza, è emerso il b>shadow AIb> come un nuovo punto cieco per la sicurezza. Le istanze di utilizzo non gestito e non autorizzato dell’IA continueranno ad aumentare finché le organizzazioni non ripenseranno il proprio approccio alle politiche relative all’IA.p>
Stabilire governance e guardrailh3>
Per affrontare i rischi legati all’IA, le organizzazioni necessitano di politiche che incoraggino un uso ragionevole dell’IA, in linea con il loro appetito per il rischio. Tuttavia, non possono farlo con modelli di governance obsoleti e strumenti non progettati specificamente per rilevare e monitorare l’uso dell’IA in tutta l’azienda.p>
Identificare il giusto frameworkh3>
Esistono già numerosi framework e risorse – incluse le linee guida del b>Department for Science, Innovation and Technology (DSIT)b>, l’b>AI Playbook for Governmentb>, l’b>Information Commissioner’s Office (ICO)b> e l’b>AI Standards Hubb> – che possono aiutare le organizzazioni a costruire un framework responsabile e robusto per l’adozione dell’IA. Queste risorse possono completare gli standard internazionali di organismi come la b>Internet Society (ISO/IEC)b> e l’b>Organisation for Economic Co-Operation and Development (OECD)b>.p>
Investire in strumenti di visibilitàh3>
Mentre un’azienda stabilisce la roadmap per la gestione del rischio dell’IA, è cruciale che il team di sicurezza inizi a valutare come appare realmente l’uso dell’IA nella loro organizzazione. Ciò significa investire in strumenti di visibilità che possano analizzare l’accesso e i modelli comportamentali per scoprire l’uso dell’IA generativa in ogni angolo dell’organizzazione.p>
Stabilire un consiglio per l’IAh3>
Con queste informazioni, il CISO dovrebbe considerare l’idea di stabilire un b>consiglio per l’IAb> composto da stakeholder di tutta l’organizzazione – incluso IT, sicurezza, legale e C-suite – per discutere i rischi, le questioni di conformità e i benefici derivanti da strumenti sia non autorizzati che autorizzati che hanno già cominciato a permeare gli ambienti aziendali. Questo consiglio può iniziare a plasmare politiche che soddisfino le esigenze aziendali in modo gestito dal rischio.p>
Ad esempio, il consiglio potrebbe notare uno strumento di shadow AI che ha preso piede, ma che potrebbe non essere sicuro, per il quale tuttavia esiste un’alternativa più sicura. Potrebbe essere stabilita una politica per vietare esplicitamente lo strumento non sicuro, suggerendo invece l’uso dell’altro. Spesso, queste politiche dovranno essere abbinate a investimenti non solo nei controlli di sicurezza, ma anche in quegli strumenti alternativi di IA.p>
Aggiornare la formazione sulle politiche dell’IAh3>
Coinvolgere e formare i dipendenti sarà fondamentale per ottenere l’approvazione organizzativa per tenere a bada il shadow AI. Con politiche migliori in atto, i dipendenti avranno bisogno di indicazioni sulle sfumature dell’uso responsabile dell’IA, sul perché certe politiche siano in vigore e sui rischi relativi alla gestione dei dati. Questa formazione può aiutarli a diventare partner attivi nell’innovazione in sicurezza.p>
In alcuni settori, l’uso dell’IA nel luogo di lavoro è spesso stato un argomento tabù. Delineare chiaramente le migliori pratiche per un uso responsabile dell’IA e il razionale dietro le politiche e i processi dell’organizzazione può eliminare l’incertezza e mitigare il rischio.p>
Governare il futuro dell’IAh3>
Il shadow AI non scomparirà. Man mano che gli strumenti generativi diventano sempre più integrati nel lavoro quotidiano, la sfida crescerà. I leader devono decidere se vedere il shadow AI come una minaccia incontrollabile o come un’opportunità per ripensare la governance per l’era dell’IA. Le organizzazioni che prospereranno saranno quelle che abbracciano l’innovazione con guardrail chiari, rendendo l’IA sia sicura che trasformativa.p>