Proteggere le Conversazioni AI con il Protocollo di Contesto del Modello

Proteggere le conversazioni AI con il Protocollo di Contesto del Modello

Quando abbiamo fornito ai nostri agenti Microsoft 365 Copilot un modo semplice per connettersi a strumenti e dati tramite il Protocollo di Contesto del Modello (MCP), il lavoro ha parlato da sé.

Le risposte sono diventate più precise. La consegna è stata accelerata. Nuovi modelli di sviluppo sono emersi nei team che lavorano con gli agenti Copilot.

Tuttavia, questa facilità di comunicazione comporta una responsabilità: proteggere la conversazione.

Le domande fondamentali

Si sono presentate domande come: chi ha il permesso di parlare? Cosa possono dire? E cosa non dovrebbe mai uscire dalla stanza?

La nostra strategia si basa su queste domande, mirando a delineare il nostro approccio e gli strumenti attorno all’MCP.

Un approccio semplice

Iniziare in modo sicuro per impostazione predefinita. Utilizzare server affidabili. Mantenere un catalogo attivo in modo da sapere sempre quali voci sono presenti. Modellare la comunicazione degli agenti richiedendo il consenso prima di apportare modifiche.

Minimizziamo ciò che viene condiviso al di fuori delle nostre mura, monitoriamo eventuali deviazioni e interveniamo quando qualcosa sembra anomalo. Il nostro obiettivo è una governance pratica che consenta agli sviluppatori di muoversi rapidamente mantenendo al contempo i nostri dati al sicuro.

Comprendere l’MCP e la necessità di sicurezza

L’MCP è uno standard semplice che consente ai sistemi AI di “parlare” con gli strumenti e i dati giusti senza necessità di integrazioni personalizzate. La standardizzazione offre velocità e flessibilità, ma cambia anche l’equazione della sicurezza.

Prima dell’MCP, ogni integrazione era una conversazione isolata. Ora, un modello può sbloccare molti sistemi. Questo è un vantaggio, ma anche un rischio. Dobbiamo essere precisi su chi può parlare, cosa possono dire e quanto viene condiviso.

Valutare la sicurezza dell’MCP su quattro livelli

Ogni sessione MCP crea un grafo di conversazione. Un agente scopre un server, assimila le descrizioni degli strumenti, aggiunge credenziali e contesto, e inizia a inviare richieste. Ogni passaggio introduce potenziali rischi.

Livello delle applicazioni e degli agenti

Qui l’intento dell’utente incontra l’esecuzione. Gli agenti analizzano i prompt, scoprono strumenti, selezionano azioni e richiedono modifiche. I clienti MCP decidono quali server fidarsi e quando chiedere il consenso dell’utente.

Livello della piattaforma AI

Questo livello include i modelli AI e i runtime che interpretano i prompt e chiamano gli strumenti, insieme alla logica di orchestrazione e alle caratteristiche di sicurezza.

Livello dei dati

Questo livello copre dati aziendali, file e segreti che la conversazione può toccare.

Livello dell’infrastruttura

Questo livello include ambienti di calcolo, rete e runtime.

Stabilire una strategia sicura per impostazione predefinita

Iniziamo chiudendo la porta principale. Raccomandiamo che ogni server remoto MCP si trovi dietro il nostro gateway API, fornendo un’unica posizione per autenticare, autorizzare, validare e registrare.

Vetting e inventario

Prima che un server MCP possa comunicare nel nostro ambiente, deve guadagnarsi la fiducia. Gli proprietari dichiarano cosa fa il server, quali strumenti e azioni tocca, come gli utenti si autenticano e dove opera.

Costruiamo un catalogo attivo per garantire che ogni server sia tracciato e che possiamo governare ciò che non possiamo vedere.

Conclusione

Il programma ha cambiato il modo in cui costruiamo. Le revisioni si muovono più velocemente e gli incidenti si risolvono più rapidamente. Ci concentriamo su ulteriori consolidamenti e automazioni per garantire che le conversazioni AI rimangano sicure senza ostacolare l’innovazione.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...