Nuovi strumenti e linee guida: Annuncio di Zero Trust per l’AI
Nel corso dell’ultimo anno, sono stati avviati dialoghi con leader della sicurezza in vari settori, evidenziando l’energia innegabile attorno all’AI. Le organizzazioni si stanno muovendo rapidamente, e i team di sicurezza stanno rispondendo a questa evoluzione. La domanda ricorrente è: “Stiamo adottando l’AI rapidamente, come possiamo assicurarci che la nostra sicurezza tenga il passo?”
È la domanda giusta, e Microsoft ha lavorato per fornire risposte aggiornando gli strumenti e le linee guida attualmente in uso. È stato annunciato l’approccio di Microsoft a Zero Trust per l’AI (ZT4AI), che estende i principi collaudati di Zero Trust all’intero ciclo di vita dell’AI, dalla raccolta dei dati e formazione dei modelli, fino al dispiegamento e comportamento degli agenti.
Perché i principi di Zero Trust devono estendersi all’AI
I sistemi AI non si adattano facilmente ai modelli di sicurezza tradizionali. Introducono nuove frontiere di fiducia tra utenti e agenti, modelli e dati, e tra esseri umani e decisioni automatizzate. Con l’adozione di agenti AI autonomi e semi-autonomi, emerge una nuova classe di rischi: agenti sovra-privilegiati, manipolati o disallineati possono agire come “agenti doppi”, lavorando contro i risultati per cui sono stati creati.
Applicando tre principi fondamentali di Zero Trust all’AI:
- Verifica esplicita — Valutare continuamente l’identità e il comportamento di agenti AI, carichi di lavoro e utenti.
- Applicare il principio del minor privilegio — Limitare l’accesso a modelli, comandi, plugin e fonti dati solo a ciò che è necessario.
- Assumere la violazione — Progettare sistemi AI per essere resilienti a iniezioni di comandi, avvelenamento dei dati e movimenti laterali.
Un percorso unificato: Strategia → valutazione → implementazione
La sfida più comune riscontrata da leader e praticanti della sicurezza è la mancanza di un percorso chiaro e strutturato da seguire. L’approccio di Microsoft a Zero Trust per l’AI è progettato per affrontare questa problematica, aiutando a passare rapidamente dai concetti all’azione.
Workshop Zero Trust—ora con un pilastro AI
Il Workshop Zero Trust è stato aggiornato con un pilastro dedicato all’AI, ora coprendo 700 controlli di sicurezza suddivisi in 116 gruppi logici e 33 aree funzionali. È progettato per spostare i team dalla valutazione all’esecuzione con chiarezza e rapidità.
Valutazione Zero Trust—espansa a Dati e Rete
Con l’aumento delle capacità degli agenti AI, le scommesse sulla sicurezza dei dati e delle reti non sono mai state così elevate. La valutazione Zero Trust automatizza la verifica delle configurazioni di sicurezza, riducendo il tempo e il rischio di errori.
Architettura di riferimento Zero Trust per l’AI
La nuova architettura di riferimento Zero Trust per l’AI mostra come controlli di accesso basati su politiche, verifica continua e governance lavorano insieme per proteggere i sistemi AI, aumentando la resilienza in caso di incidenti.
Modelli e pratiche pratiche per la sicurezza dell’AI
I modelli e le pratiche offrono approcci ripetibili per le sfide più complesse della sicurezza AI, simili ai modelli di design software.
Inizia con Zero Trust per l’AI
Zero Trust per l’AI porta principi di sicurezza collaudati nelle realtà moderne dell’AI. Gli strumenti, l’architettura e le linee guida sono pronti per essere utilizzati.