Lineaje Adiciona Capacidade de Aplicar Automaticamente Políticas de Governança a Componentes de IA
Recentemente, uma nova plataforma foi lançada, capaz de descobrir automaticamente os componentes de inteligência artificial (IA) de uma aplicação, definir políticas de segurança e governança, e gerar autonomamente proteções.
Funcionalidades da Plataforma
No núcleo da plataforma está um conjunto de capacidades de IA, integrado a uma estrutura de orquestração para aplicar políticas de governança, embutida em um servidor de Protocolo de Contexto de Modelo (MCP) que se integra a ferramentas de codificação de IA.
Os Agentes de Descoberta desenvolvidos continuamente mapeiam uma Lista de Materiais de IA (AIBOM) para identificar cada modelo, agente, servidor MCP, dependências, habilidades e conexões de dados. Além disso, agentes de IA criam um modelo de Cadeia de Morte de IA para prevenir ameaças conhecidas, utilizando as defesas que uma equipe de DevSecOps implementou.
Integração e Aplicação de Políticas
A abordagem permite que a plataforma derive a intenção de comportamento da aplicação a partir das ferramentas usadas para projetá-la e construí-la, utilizando essas informações para gerar as políticas de governança apropriadas. Equipes de DevSecOps também podem enviar documentos internos de governança que são convertidos em políticas aplicáveis. Além disso, laboratórios de pesquisa em IA publicam continuamente novas políticas para lidar com ameaças emergentes em ambientes de IA.
Essas atualizações são cruciais, pois as táticas e técnicas criadas para explorar software de IA continuam a evoluir rapidamente.
Análise de Risco e Recomendação de Políticas
Com essas informações, uma equipe de DevSecOps pode confiar na plataforma para mapear, em tempo real, cada sistema, conexão e padrão de comportamento para avaliar riscos. A plataforma também recomenda automaticamente políticas para proteção de dados, gestão de identidade e acesso, conformidade, prevenção de ameaças e remediação de vulnerabilidades, eliminando a necessidade de as equipes escreverem políticas do zero.
Implicações para Equipes de DevSecOps
Cada equipe de DevSecOps precisará decidir até que ponto quer confiar na IA para gerar e aplicar políticas de governança. Com o tempo, esse processo se tornará automatizado à medida que a confiança na IA aumentar.
Um especialista em engenharia de ciclo de vida de software destacou que a plataforma ilustra como a governança de IA está sendo operacionalizada. A descoberta automatizada de componentes de IA, a geração de políticas e a aplicação de proteções agora podem ser integradas diretamente no fluxo de trabalho de desenvolvimento, tornando a governança uma função contínua ao longo do ciclo de vida.
Conclusão
À medida que os componentes de IA se multiplicam, as equipes que dependem da autoria manual de políticas enfrentarão uma exposição crescente. A descoberta automatizada de AIBOM e o modelamento de Cadeia de Morte se tornam requisitos básicos, não aprimoramentos opcionais. As equipes de DevSecOps precisarão reengenheirar seus fluxos de trabalho à medida que mais componentes de IA forem incorporados em suas aplicações, especialmente considerando que muitos desses componentes são suscetíveis a prompts maliciosos simples.