Il nuovo modello di governance dell’IA contro il Shadow IT

Il nuovo modello di governance dell’IA che mette in guardia sul Shadow ITh2>

Gli strumenti di b>intelligenza artificiale (IA)b> si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Dai team di marketing che redigono campagne in ChatGPT agli ingegneri del software che sperimentano con i generatori di codice, l’IA sta lentamente penetrando in ogni angolo delle operazioni aziendali. Tuttavia, gran parte dell’adozione dell’IA avviene sotto il radar, senza alcun controllo o governance appropriati.p>

Di conseguenza, è emerso il b>shadow AIb> come un nuovo punto cieco per la sicurezza. Le istanze di utilizzo non gestito e non autorizzato dell’IA continueranno ad aumentare finché le organizzazioni non ripenseranno il proprio approccio alle politiche relative all’IA.p>

Stabilire governance e guardrailh3>

Per affrontare i rischi legati all’IA, le organizzazioni necessitano di politiche che incoraggino un uso ragionevole dell’IA, in linea con il loro appetito per il rischio. Tuttavia, non possono farlo con modelli di governance obsoleti e strumenti non progettati specificamente per rilevare e monitorare l’uso dell’IA in tutta l’azienda.p>

Identificare il giusto frameworkh3>

Esistono già numerosi framework e risorse – incluse le linee guida del b>Department for Science, Innovation and Technology (DSIT)b>, l’b>AI Playbook for Governmentb>, l’b>Information Commissioner’s Office (ICO)b> e l’b>AI Standards Hubb> – che possono aiutare le organizzazioni a costruire un framework responsabile e robusto per l’adozione dell’IA. Queste risorse possono completare gli standard internazionali di organismi come la b>Internet Society (ISO/IEC)b> e l’b>Organisation for Economic Co-Operation and Development (OECD)b>.p>

Investire in strumenti di visibilitàh3>

Mentre un’azienda stabilisce la roadmap per la gestione del rischio dell’IA, è cruciale che il team di sicurezza inizi a valutare come appare realmente l’uso dell’IA nella loro organizzazione. Ciò significa investire in strumenti di visibilità che possano analizzare l’accesso e i modelli comportamentali per scoprire l’uso dell’IA generativa in ogni angolo dell’organizzazione.p>

Stabilire un consiglio per l’IAh3>

Con queste informazioni, il CISO dovrebbe considerare l’idea di stabilire un b>consiglio per l’IAb> composto da stakeholder di tutta l’organizzazione – incluso IT, sicurezza, legale e C-suite – per discutere i rischi, le questioni di conformità e i benefici derivanti da strumenti sia non autorizzati che autorizzati che hanno già cominciato a permeare gli ambienti aziendali. Questo consiglio può iniziare a plasmare politiche che soddisfino le esigenze aziendali in modo gestito dal rischio.p>

Ad esempio, il consiglio potrebbe notare uno strumento di shadow AI che ha preso piede, ma che potrebbe non essere sicuro, per il quale tuttavia esiste un’alternativa più sicura. Potrebbe essere stabilita una politica per vietare esplicitamente lo strumento non sicuro, suggerendo invece l’uso dell’altro. Spesso, queste politiche dovranno essere abbinate a investimenti non solo nei controlli di sicurezza, ma anche in quegli strumenti alternativi di IA.p>

Aggiornare la formazione sulle politiche dell’IAh3>

Coinvolgere e formare i dipendenti sarà fondamentale per ottenere l’approvazione organizzativa per tenere a bada il shadow AI. Con politiche migliori in atto, i dipendenti avranno bisogno di indicazioni sulle sfumature dell’uso responsabile dell’IA, sul perché certe politiche siano in vigore e sui rischi relativi alla gestione dei dati. Questa formazione può aiutarli a diventare partner attivi nell’innovazione in sicurezza.p>

In alcuni settori, l’uso dell’IA nel luogo di lavoro è spesso stato un argomento tabù. Delineare chiaramente le migliori pratiche per un uso responsabile dell’IA e il razionale dietro le politiche e i processi dell’organizzazione può eliminare l’incertezza e mitigare il rischio.p>

Governare il futuro dell’IAh3>

Il shadow AI non scomparirà. Man mano che gli strumenti generativi diventano sempre più integrati nel lavoro quotidiano, la sfida crescerà. I leader devono decidere se vedere il shadow AI come una minaccia incontrollabile o come un’opportunità per ripensare la governance per l’era dell’IA. Le organizzazioni che prospereranno saranno quelle che abbracciano l’innovazione con guardrail chiari, rendendo l’IA sia sicura che trasformativa.p>

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...