Lineaje Introduce la Governance Automatica per i Componenti di Intelligenza Artificiale
Recentemente, è stata annunciata una piattaforma che scopre automaticamente i componenti di intelligenza artificiale (AI) di un’applicazione, definisce politiche di sicurezza e governance, e genera autonomamente misure di protezione.
Piattaforma UnifAI
Il cuore della piattaforma UnifAI è costituito da capacità AI integrate con un framework di orchestrazione per applicare politiche di governance, incorporato in un server Model Context Protocol (MCP) per integrarsi con gli strumenti di sviluppo AI.
Gli Agenti di Scoperta mappano continuamente un AI Bill of Materials (AIBOM) per identificare ogni modello, agente, server MCP, dipendenza, abilità e connessioni dati. Inoltre, gli agenti AI creano un modello AI Kill-Chain per contrastare le minacce note, utilizzando le difese messe in atto da un team DevSecOps.
Approccio Innovativo
Questo approccio permette alla piattaforma di derivare l’intento comportamentale dell’applicazione dagli strumenti usati per progettare e costruire l’applicazione stessa, utilizzandolo per generare politiche di governance appropriate. I team DevSecOps possono anche caricare documenti di governance interni, che vengono convertiti in politiche applicabili. Inoltre, laboratori di ricerca AI pubblicano costantemente nuove politiche per affrontare le minacce emergenti negli ambienti AI agentici.
Questi aggiornamenti sono fondamentali, poiché le tattiche e le tecniche di sfruttamento del software AI continuano ad evolversi rapidamente.
Valutazione del Rischio in Tempo Reale
Con queste informazioni, un team DevSecOps può fare affidamento sulla piattaforma UnifAI per mappare in tempo reale ogni sistema, connessione e modello comportamentale, al fine di valutare i rischi.
La piattaforma raccomanda automaticamente politiche per la protezione dei dati, la gestione delle identità e degli accessi, l’aderenza alla conformità, la prevenzione delle minacce e la mitigazione delle vulnerabilità, eliminando la necessità che i team scrivano politiche da zero. L’obiettivo principale è identificare e risolvere i rischi prima che le applicazioni vengano distribuite in ambienti di produzione.
Implicazioni Future
Ogni team DevSecOps dovrà decidere in che misura vorrà fare affidamento sull’AI per generare e applicare politiche di governance, ma col tempo questo processo diventerà automatico, aumentando la fiducia nell’AI stessa.
Un esperto ha osservato che la piattaforma UnifAI evidenzia come la governance AI stia diventando operativa. La scoperta automatica dei componenti AI, la generazione di politiche e l’applicazione delle misure di protezione possono essere integrate direttamente nel flusso di lavoro di sviluppo, posizionando la governance come una funzione continua piuttosto che come un checkpoint pre-deploy.
Inoltre, i team DevSecOps beneficiano di un’applicazione delle politiche direttamente legata al comportamento effettivo dell’applicazione, derivato dagli strumenti e dalle dipendenze usati per costruirla. Con l’aumento dei componenti AI agentici, i team che affidano il processo di definizione delle politiche a interventi manuali si espongono a rischi crescenti: la scoperta automatica dell’AIBOM e la modellazione del kill-chain diventano requisiti fondamentali, non più opzionali.
Infine, i team DevSecOps dovranno considerare quanto ri-integrare i loro flussi di lavoro, man mano che vengono assimilati più componenti AI nelle loro applicazioni, poiché molti di questi sono vulnerabili a prompt malevoli facilmente realizzabili. In assenza di politiche di governance, i danni potenziali sono ora molto più elevati che mai.