Proteggere le conversazioni AI con il Protocollo di Contesto del Modello
Quando abbiamo fornito ai nostri agenti Microsoft 365 Copilot un modo semplice per connettersi a strumenti e dati tramite il Protocollo di Contesto del Modello (MCP), il lavoro ha parlato da sé.
Le risposte sono diventate più precise. La consegna è stata accelerata. Nuovi modelli di sviluppo sono emersi nei team che lavorano con gli agenti Copilot.
Tuttavia, questa facilità di comunicazione comporta una responsabilità: proteggere la conversazione.
Le domande fondamentali
Si sono presentate domande come: chi ha il permesso di parlare? Cosa possono dire? E cosa non dovrebbe mai uscire dalla stanza?
La nostra strategia si basa su queste domande, mirando a delineare il nostro approccio e gli strumenti attorno all’MCP.
Un approccio semplice
Iniziare in modo sicuro per impostazione predefinita. Utilizzare server affidabili. Mantenere un catalogo attivo in modo da sapere sempre quali voci sono presenti. Modellare la comunicazione degli agenti richiedendo il consenso prima di apportare modifiche.
Minimizziamo ciò che viene condiviso al di fuori delle nostre mura, monitoriamo eventuali deviazioni e interveniamo quando qualcosa sembra anomalo. Il nostro obiettivo è una governance pratica che consenta agli sviluppatori di muoversi rapidamente mantenendo al contempo i nostri dati al sicuro.
Comprendere l’MCP e la necessità di sicurezza
L’MCP è uno standard semplice che consente ai sistemi AI di “parlare” con gli strumenti e i dati giusti senza necessità di integrazioni personalizzate. La standardizzazione offre velocità e flessibilità, ma cambia anche l’equazione della sicurezza.
Prima dell’MCP, ogni integrazione era una conversazione isolata. Ora, un modello può sbloccare molti sistemi. Questo è un vantaggio, ma anche un rischio. Dobbiamo essere precisi su chi può parlare, cosa possono dire e quanto viene condiviso.
Valutare la sicurezza dell’MCP su quattro livelli
Ogni sessione MCP crea un grafo di conversazione. Un agente scopre un server, assimila le descrizioni degli strumenti, aggiunge credenziali e contesto, e inizia a inviare richieste. Ogni passaggio introduce potenziali rischi.
Livello delle applicazioni e degli agenti
Qui l’intento dell’utente incontra l’esecuzione. Gli agenti analizzano i prompt, scoprono strumenti, selezionano azioni e richiedono modifiche. I clienti MCP decidono quali server fidarsi e quando chiedere il consenso dell’utente.
Livello della piattaforma AI
Questo livello include i modelli AI e i runtime che interpretano i prompt e chiamano gli strumenti, insieme alla logica di orchestrazione e alle caratteristiche di sicurezza.
Livello dei dati
Questo livello copre dati aziendali, file e segreti che la conversazione può toccare.
Livello dell’infrastruttura
Questo livello include ambienti di calcolo, rete e runtime.
Stabilire una strategia sicura per impostazione predefinita
Iniziamo chiudendo la porta principale. Raccomandiamo che ogni server remoto MCP si trovi dietro il nostro gateway API, fornendo un’unica posizione per autenticare, autorizzare, validare e registrare.
Vetting e inventario
Prima che un server MCP possa comunicare nel nostro ambiente, deve guadagnarsi la fiducia. Gli proprietari dichiarano cosa fa il server, quali strumenti e azioni tocca, come gli utenti si autenticano e dove opera.
Costruiamo un catalogo attivo per garantire che ogni server sia tracciato e che possiamo governare ciò che non possiamo vedere.
Conclusione
Il programma ha cambiato il modo in cui costruiamo. Le revisioni si muovono più velocemente e gli incidenti si risolvono più rapidamente. Ci concentriamo su ulteriori consolidamenti e automazioni per garantire che le conversazioni AI rimangano sicure senza ostacolare l’innovazione.