Nuevas herramientas y orientación: Anunciando Zero Trust para AI
Durante el último año, se han llevado a cabo conversaciones con líderes de seguridad en diversas disciplinas, y la energía en torno a la inteligencia artificial (IA) es innegable. Las organizaciones están avanzando rápidamente, y los equipos de seguridad se están adaptando a esta realidad. La pregunta recurrente es: «¿Estamos adoptando IA rápidamente, cómo aseguramos que nuestra seguridad esté a la altura?»
Es la pregunta correcta, y es la que se ha estado trabajando para responder mediante la actualización de las herramientas y la orientación que ya se utilizan. Se anuncia un nuevo enfoque para Zero Trust para AI (ZT4AI). Zero Trust para AI extiende los principios probados de Zero Trust a todo el ciclo de vida de la IA, desde la ingestión de datos y el entrenamiento de modelos hasta el despliegue y el comportamiento de los agentes.
Extensión de los principios de Zero Trust a la IA
Los sistemas de IA no se ajustan fácilmente a los modelos de seguridad tradicionales. Introducen nuevas fronteras de confianza entre usuarios y agentes, modelos y datos, y humanos y toma de decisiones automatizadas. A medida que las organizaciones adoptan agentes de IA autónomos y semi-autónomos, surge una nueva clase de riesgo: agentes que tienen privilegios excesivos, son manipulados o desalineados, pueden actuar en contra de los resultados que fueron diseñados para apoyar.
Al aplicar tres principios fundamentales de Zero Trust a la IA:
- Verificar explícitamente: Evaluar continuamente la identidad y el comportamiento de los agentes de IA, cargas de trabajo y usuarios.
- Aplicar el principio de menor privilegio: Restringir el acceso a modelos, indicaciones, complementos y fuentes de datos solo a lo necesario.
- Asumir brechas: Diseñar sistemas de IA para ser resilientes ante inyecciones de indicaciones, envenenamiento de datos y movimientos laterales.
Estos principios no son nuevos. Lo que es nuevo es cómo se aplican sistemáticamente a los entornos de IA.
Un viaje unificado: Estrategia → evaluación → implementación
El desafío más común que se escucha de los líderes de seguridad y practicantes es la falta de un camino claro y estructurado desde el conocimiento hasta la acción. Esto es lo que el enfoque para Zero Trust para AI busca resolver, ayudando a avanzar rápidamente hacia los próximos pasos y acciones.
Taller de Zero Trust: ahora con un pilar de IA
El Taller de Zero Trust se ha actualizado con un pilar dedicado a la IA, cubriendo 700 controles de seguridad a través de 116 grupos lógicos y 33 flujos de trabajo funcionales. Está basado en escenarios y es prescriptivo, diseñado para mover a los equipos desde la evaluación hasta la ejecución con claridad y rapidez.
El taller ayuda a las organizaciones a alinear a los interesados en seguridad, TI y negocios en resultados compartidos, aplicar principios de Zero Trust en todos los pilares, explorar escenarios de IA del mundo real y los riesgos específicos que introducen.
Evaluación de Zero Trust: ampliada a Datos y Redes
A medida que los agentes de IA se vuelven más capaces, las apuestas en torno a la seguridad de datos y redes son más altas que nunca. Los agentes que no están suficientemente gobernados pueden exponer datos sensibles, actuar según indicaciones maliciosas o filtrar información de manera difícil de detectar y costosa de remediar. La clasificación de datos, etiquetado, gobernanza y prevención de pérdidas son controles esenciales.
La Evaluación de Zero Trust evalúa cientos de controles alineados a los principios de Zero Trust, informada por aprendizajes de iniciativas de seguridad. Se están agregando nuevas columnas de datos y red junto a los existentes de identidad y dispositivos.
Arquitectura de referencia de Zero Trust para IA
La nueva arquitectura de referencia de Zero Trust para IA muestra cómo los controles de acceso basados en políticas, verificación continua, monitoreo y gobernanza trabajan juntos para asegurar sistemas de IA, mientras aumentan la resiliencia ante incidentes.
Patrones y prácticas para la seguridad de IA
Conocer qué hacer es una cosa; saber cómo operacionalizarlo a escala es otra. Los patrones y prácticas proporcionan enfoques repetibles y probados para los desafíos más complejos de seguridad de IA, similares a cómo los patrones de diseño de software ofrecen soluciones reutilizables para problemas de ingeniería comunes.
Conozca más sobre Zero Trust para AI en sesiones programadas durante la Conferencia RSAC 2026.