Rischi della Sicurezza nell’Adottare la GenAI nelle Organizzazioni

Nuove esposizioni di sicurezza dell’adozione rapida di GenAI che le organizzazioni devono affrontare

Generative AI (GenAI) è passata da curiosità a forza centrale nella tecnologia aziendale. La sua capacità di generare testo, codice, immagini e intuizioni su richiesta la rende indispensabile per i dipendenti che desiderano semplificare la complessità e accelerare la produttività. Tuttavia, con questa innovazione ed efficienza, sorgono enormi rischi.

Le chiamate con dirigenti e leader della governance AI in vari settori evidenziano un tema ricorrente: la sicurezza dei dati è passata da una preoccupazione chiave a un punto focale della loro strategia, diventando la sfida definente dell’adozione dell’AI. A differenza del software tradizionale o delle precedenti onde di machine learning, GenAI cambia radicalmente il processo di protezione dei dati all’interno di un’organizzazione.

Studi recenti hanno rivelato che il 95% dei progetti pilota GenAI nelle imprese sta fallendo. Non perché la tecnologia sia debole, ma perché le aziende mancano dei framework di governance e sicurezza necessari per operazionalizzare GenAI in modo appropriato e responsabile. I leader aziendali citano la sicurezza dei dati come il principale rischio commerciale e di sicurezza che ostacola l’adozione più rapida dell’AI. Inoltre, l’uso non autorizzato di strumenti pubblici da parte dei dipendenti, noto come “shadow AI”, è ampiamente riconosciuto come un driver di rischi per i dati in aumento al di là del controllo aziendale.

Esposizioni di GenAI da considerare

GenAI crea una superficie di dati vasta e in continua espansione, complicando la governance e la sicurezza dei dati aziendali in vari modi interconnessi:

  • Perdita di input – GenAI può ingerire dati nella loro forma grezza, inclusi testi, immagini, audio e video. Gli utenti finali possono ora indirizzare gli strumenti GenAI verso nuovi dataset con sforzo o competenza minima. Questo significa che i dipendenti stanno alimentando i prompt con informazioni aziendali altamente sensibili, inclusi dati identificabili dei clienti, proprietà intellettuale, previsioni finanziarie e persino codici sorgente.
  • Esposizione di output – I modelli generativi non si limitano a consumare, ma sintetizzano. Un prompt può inavvertitamente estrarre intuizioni da vari dataset ed esporle a utenti senza la necessaria autorizzazione. In alcuni casi, gli output possono persino “allucinare” dati che appaiono legittimi ma contengono frammenti di materiale di addestramento altamente sensibile.
  • Accessibilità senza supervisione – I sistemi aziendali tradizionali richiedevano l’approvazione dei fornitori e la fornitura IT. Oggi GenAI è incorporata ovunque: suite Microsoft Office, browser, strumenti di chat e piattaforme SaaS. I dipendenti possono adottarla immediatamente, eludendo completamente la governance. Questo accesso senza attriti alimenta lo “shadow AI”, e ogni uso non autorizzato di GenAI è un potenziale evento di esfiltrazione dei dati che avviene invisibilmente, su larga scala, e al di fuori del perimetro di governance di un’azienda.
  • Rischio della catena di fornitura di secondo livello – Un fornitore può sembrare sicuro, ma spesso fa affidamento su subappaltatori come host cloud, servizi di annotazione o laboratori AI di terze parti. Ognuno introduce i propri contratti di licenza e politiche. I dati sensibili possono passare attraverso più mani invisibili, mentre la responsabilità rimane interamente con l’azienda.
  • Gap di governance nei dati di addestramento – Una volta che i dati entrano in un modello AI, il controllo di fatto termina. Le aziende non possono facilmente ritirare o governare come le loro informazioni vengono utilizzate. La conoscenza proprietaria può persistere e poi riemergere negli output molto tempo dopo che la sua origine è stata dimenticata.

Affrontare il rischio di GenAI

GenAI è già incorporata nei flussi di lavoro aziendali, quindi la domanda per le aziende non è se adottarla, ma come farlo in modo responsabile. Adottare GenAI senza governance comporta rischi costosi, penali normative e danni alla reputazione. Bloccandola, si spingono i dipendenti a utilizzare soluzioni non autorizzate. L’unico modo per procedere è l’abilitazione avvolta in visibilità e controllo.

La governance di GenAI richiede visibilità contestuale non solo su quali dati ha un’azienda, dove si trovano e chi ha accesso, ma anche su come viene utilizzato GenAI. Le aziende devono monitorare quali strumenti vengono utilizzati, quali prompt vengono inseriti e se dati sensibili stanno lasciando il loro ambiente. Da lì, possono applicare controlli appropriati per monitorare i prompt e gli output in tempo reale, segnalare sessioni rischiose o flussi di dati anomali, bloccare strumenti non autorizzati, filtrare prompt sensibili prima che escano, de-identificare i dati sensibili mentre vengono inseriti nei prompt e far rispettare restrizioni basate sui ruoli sugli approfondimenti guidati dall’AI.

GenAI rappresenta un nuovo strato di rischio e opportunità per le aziende. Gestirlo richiede la mentalità che la sicurezza non sia un freno all’innovazione, ma la base che la rende sicura.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...