Superare la fatica da IA
L’IA è ora presente in ogni angolo delle imprese. Molti responsabili della sicurezza informatica si sentono bloccati tra il desiderio di andare avanti e la mancanza di un punto di partenza. La paura di gestire in modo errato sia l’uso dell’IA per la sicurezza sia la protezione dell’IA all’interno dell’organizzazione spesso ferma il processo prima che inizi. Tuttavia, a differenza di altre grandi onde tecnologiche come il cloud o il mobile, abbiamo effettivamente la possibilità di mettere in atto delle misure di protezione attorno all’IA prima che diventi completamente radicata in ogni angolo dell’attività. Questa è un’opportunità rara che non dovremmo sprecare.
Dal fatigue da IA a una necessaria chiarezza
Una parte significativa della confusione deriva proprio dalla parola “IA”. Utilizziamo lo stesso termine per parlare di un chatbot che redige testi di marketing e di agenti autonomi che generano e implementano piani di risposta agli incidenti. Tecnologicamente, sono entrambi IA, ma i rischi non sono paragonabili. Il modo più semplice per tagliare attraverso l’hype dell’IA è suddividere l’IA in categorie in base a quanto indipendente sia il sistema e quanto danno potrebbe causare se qualcosa andasse storto.
Da un lato, abbiamo l’IA generativa, che non agisce da sola. Risponde a stimoli, crea contenuti e aiuta con la ricerca o la scrittura. La maggior parte del rischio qui deriva dall’uso improprio da parte delle persone — condivisione di dati sensibili, incollare codice proprietario, fuga di proprietà intellettuale e così via. La buona notizia è che questi problemi sono gestibili. Politiche chiare di uso accettabile, formazione su cosa non inserire negli strumenti di IA generativa e l’implementazione di controlli tecnici applicabili gestiranno gran parte delle considerazioni sulla sicurezza relative all’IA generativa.
Il rischio aumenta quando le aziende lasciano che l’IA generativa influenzi le decisioni. Se i dati sottostanti sono errati, contaminati o incompleti, anche le raccomandazioni costruite su quei dati saranno errate. Questo è il punto in cui i responsabili della sicurezza devono prestare attenzione all’integrità dei dati, non solo alla loro protezione.
Dall’altro lato dello spettro c’è l’IA agentica. Qui le scommesse si alzano. I sistemi agentici non rispondono solo a domande, ma intraprendono azioni e talvolta prendono decisioni. Alcuni possono attivare flussi di lavoro o interagire con sistemi interni con pochissimo coinvolgimento umano. Più indipendente è il sistema, maggiore è il potenziale impatto. E a differenza dell’IA generativa, non ci si può affidare a “migliori stimoli” per risolvere il problema.
Perché i responsabili della sicurezza hanno un’opportunità qui
Se hai lavorato nella sicurezza per un po’, probabilmente hai vissuto almeno un’onda tecnologica in cui l’azienda è avanzata e la sicurezza è stata costretta a rincorrere. L’adozione del cloud è un esempio recente. Una volta che quel treno è partito, non c’è stato modo di tornare indietro e certamente non c’è stata possibilità di rallentare.
Ciò che rende l’IA diversa è che la maggior parte delle aziende, anche quelle più innovative, stanno ancora cercando di capire cosa vogliono dall’IA e come implementarla al meglio. Al di fuori della tecnologia, molti dirigenti stanno sperimentando senza una strategia reale. Questo crea una finestra per i responsabili della sicurezza per definire le aspettative precocemente.
Questo è il momento di definire le “regole inamovibili”, di stabilire quali team esamineranno le richieste di IA e di mettere in atto una struttura su come vengono prese le decisioni. I leader della sicurezza di oggi hanno più influenza rispetto a precedenti cambiamenti tecnologici, e la governance dell’IA è rapidamente diventata una delle responsabilità più strategiche nel loro ruolo.
Integrità dei dati: fondamentale per il rischio dell’IA
Quando si parla del triangolo CIA, “integrità” di solito ottiene meno attenzione. Nella maggior parte delle organizzazioni, le applicazioni gestiscono l’integrità silenziosamente in background. Ma l’IA cambia il nostro modo di pensarci. Se i dati che alimentano i tuoi sistemi IA sono compromessi, incompleti, errati o manipolati, allora le decisioni basate su quei dati possono influenzare processi finanziari, catene di approvvigionamento, interazioni con i clienti o persino la sicurezza fisica. Il compito del responsabile della sicurezza ora include garantire che i sistemi IA si basino su dati affidabili, non solo protetti. Questi due aspetti non sono più la stessa cosa.
Un approccio semplice e stratificato alla governance dell’IA
Per dare un senso a tutti i diversi casi d’uso dell’IA, si raccomanda un approccio stratificato. Questo rispecchia come molte aziende già gestiscono il rischio di terze parti: maggiore è il rischio, maggiore è il controllo e la scrutini.
Passo 1: Categorizzare l’uso dell’IA
Un programma pratico di governance dell’IA inizia categorizzando ogni caso d’uso secondo due metriche fondamentali: il livello di autonomia del sistema e il potenziale impatto sull’attività. L’autonomia varia da IA generativa reattiva a sistemi decisionali assistiti, fino a sistemi agentici con intervento umano e, infine, a agenti IA totalmente indipendenti.
Ogni caso d’uso dell’IA deve essere valutato per il suo impatto sull’attività, categorizzando l’impatto in modo semplice come basso, medio o alto. I sistemi a basso impatto e bassa autonomia potrebbero richiedere solo una supervisione leggera, mentre i casi d’uso ad alta autonomia e alto impatto richiedono una governance formale, una revisione architettonica rigorosa, un monitoraggio continuo e, in alcuni casi, una supervisione umana esplicita o l’aggiunta di un interruttore di emergenza. Questo approccio strutturato consente ai responsabili della sicurezza di determinare rapidamente quando sono necessari controlli più rigorosi e quando i principi di zero-trust dovrebbero essere applicati all’interno dei sistemi IA stessi.
Passo 2: Definire i controlli fondamentali per tutte le IA
Una volta stabilito il rischio stratificato, i responsabili della sicurezza devono garantire che i controlli fondamentali siano applicati in modo coerente a tutte le implementazioni dell’IA. Indipendentemente dalla sofisticazione della tecnologia, ogni organizzazione ha bisogno di politiche chiare e applicabili sull’uso accettabile, di formazione sulla sicurezza che affronti i rischi specifici dell’IA e di controlli tecnici che prevengano perdite di dati e comportamenti indesiderati. Un monitoraggio di base per attività IA anomale garantisce ulteriormente che anche i casi d’uso dell’IA generativa a basso rischio operino all’interno di limiti sicuri e prevedibili.
Passo 3: Determinare dove avverrà la revisione dell’IA
Con queste fondamenta stabilite, le organizzazioni devono determinare dove avverrà effettivamente la governance dell’IA. Il forum giusto dipende dalla maturità organizzativa e dalle strutture esistenti. Alcune aziende possono integrare le revisioni dell’IA in un consiglio di revisione architettonica consolidato o in un comitato di privacy o sicurezza; altre potrebbero aver bisogno di un organo di governance dell’IA dedicato e interdisciplinare. Indipendentemente dalla struttura scelta, una supervisione efficace dell’IA richiede input dalla sicurezza, dalla privacy, dai dati, dal legale, dal prodotto e dalle operazioni. La governance non può essere responsabilità di un singolo dipartimento — l’impatto dell’IA si estende in tutta l’impresa e così deve essere la sua supervisione.
Passo 4: Stabilire regole inamovibili e controlli critici
Infine, prima che qualsiasi caso d’uso dell’IA venga approvato, l’organizzazione deve articolare le sue regole non negoziabili e i controlli critici. Questi sono i confini che i sistemi IA non devono mai superare, come eliminare autonomamente dati o esporre informazioni sensibili. Alcuni sistemi potrebbero richiedere una supervisione umana esplicita e qualsiasi IA agentica che possa superare meccanismi di intervento umano deve includere un interruttore di emergenza affidabile.
Principi di accesso basati sui minimi privilegi e zero-trust dovrebbero anche applicarsi all’interno dei sistemi IA, per prevenire che questi ereditino più autorità o visibilità di quanto intendesse. Queste regole dovrebbero essere dinamiche, evolvendo con le capacità dell’IA e le esigenze aziendali.
L’IA non è più opzionale, ma una buona governance non può esserlo nemmeno
I responsabili della sicurezza non devono diventare esperti di machine learning o rallentare l’azienda. Ciò di cui hanno bisogno è un modo chiaro e applicabile per giudicare i rischi dell’IA e mantenere la sicurezza man mano che l’adozione cresce. Suddividere l’IA in categorie comprensibili, abbinando ciò a un semplice modello di rischio e coinvolgendo le persone giuste fin dall’inizio contribuirà notevolmente a ridurre il sovraccarico.
L’IA ridefinirà ogni angolo dell’impresa. La domanda è chi modellerà l’IA. Per la prima volta in molto tempo, i responsabili della sicurezza hanno la possibilità di stabilire le regole, non di affannarsi a farle rispettare.
Carpe diem!