Lineaje Añade la Capacidad de Aplicar Automáticamente Políticas de Gobernanza a Componentes de IA
Lineaje ha lanzado esta semana una plataforma que descubre automáticamente los componentes de inteligencia artificial (IA) de una aplicación, define políticas de seguridad y gobernanza, y luego genera de manera autónoma salvaguardias.
Características de la Plataforma
En el núcleo de la plataforma Lineaje UnifAI se encuentran un conjunto de capacidades de IA que están integradas con un marco de orquestación para aplicar políticas de gobernanza, el cual se ha incorporado dentro de un servidor de Protocolo de Contexto de Modelo (MCP) para integrarse con herramientas de codificación de IA.
Los Agentes de Descubrimiento que ha desarrollado Lineaje mapean continuamente un Inventario de Materiales de IA (AIBOM) para identificar cada modelo, agente, servidor MCP, dependencia, habilidades y conexiones de datos. Además, los agentes de IA crearán un modelo de Cadena de Muerte de IA para frustrar amenazas conocidas utilizando las defensas que ha implementado un equipo de DevSecOps.
Inteligencia de Comportamiento de Aplicaciones
El CEO de Lineaje afirmó que este enfoque permite a la plataforma derivar la intención del comportamiento de la aplicación a partir de las herramientas utilizadas para diseñar y construir una aplicación, lo que luego utiliza para generar las políticas de gobernanza apropiadas. Los equipos de DevSecOps también pueden cargar documentos de gobernanza internos que se convierten en políticas ejecutables. Además, los Laboratorios de Investigación de IA de Lineaje publican continuamente nuevas políticas para abordar amenazas emergentes en entornos de IA.
Implicaciones y Riesgos
Estas actualizaciones serán cruciales, ya que las tácticas y técnicas para explotar el software de IA continúan evolucionando rápidamente. Equipados con estos conocimientos, un equipo de DevSecOps puede confiar en la plataforma UnifAI para mapear en tiempo real cada sistema, conexión y patrón de comportamiento para evaluar riesgos.
La plataforma también recomienda automáticamente políticas para la protección de datos, gestión de identidades y accesos, alineación de cumplimiento, prevención de amenazas y remediación de vulnerabilidades, eliminando la necesidad de que los equipos escriban políticas desde cero. El objetivo general es identificar y resolver riesgos antes de que las aplicaciones se implementen en un entorno de producción.
El Futuro de la Gobernanza de IA
Cada equipo de DevSecOps deberá determinar hasta qué grado desea confiar en la IA para generar y aplicar políticas de gobernanza, pero con el tiempo este proceso se automatizará a medida que aumente la confianza en la IA. La plataforma UnifAI ilustra cómo la gobernanza de IA se está operacionalizando, permitiendo que el descubrimiento automatizado de componentes de IA, la generación de políticas y la aplicación de salvaguardias se integren directamente en el flujo de trabajo de desarrollo.
Además, los equipos de DevSecOps obtienen la aplicación de políticas de una manera que está vinculada al comportamiento real de la aplicación, derivado de las herramientas y dependencias utilizadas para construirla. A medida que los componentes de IA aumentan, los equipos que dependen de la autoría manual de políticas enfrentarán una mayor exposición; el descubrimiento automatizado de AIBOM y la modelización de cadenas de muerte se convertirán en requisitos básicos, no en mejoras opcionales.
Los equipos de DevSecOps deberán determinar hasta qué grado reingeniarán sus flujos de trabajo a medida que más componentes de IA se integren en sus aplicaciones, ya que muchos de estos componentes son susceptibles a ataques como los comandos maliciosos, que son relativamente sencillos de crear. En ausencia de políticas de gobernanza, el potencial de daño es ahora mayor que nunca.