El Marco de Seguridad AI de Pillar: Un Avance Clave en la Industria

El Marco de Seguridad de Pillar Aporta al Creciente Impulso de Seguridad en IA de la Industria

En un esfuerzo por proporcionar estrategias, gobernanza y herramientas que aseguren operaciones seguras para la IA y los agentes, la startup Pillar Security ha codificado un marco de seguridad en IA que representa un avance significativo en la industria. Este marco, conocido como Secure AI Lifecycle Framework (SAIL), fue desarrollado con la experiencia de expertos en ciberseguridad de más de dos docenas de empresas.

Entre los participantes se encuentran grandes nombres de la industria como AT&T, Corning, Philip Morris, Microsoft, Google Cloud, SAP y ServiceNow.

El marco SAIL llega tras otros desarrollos críticos en seguridad de IA que buscan hacer que los datos y las aplicaciones sean seguros a medida que aumenta el uso de la tecnología subyacente. Estas iniciativas incluyen:

  • Red Teaming para combatir una variedad de categorías de amenazas de IA.
  • Una visión en profundidad del sistema de control de Copilot de Microsoft para seguridad y gobernanza.
  • Principales conclusiones sobre datos y gobernanza de la estrategia de IA del Cuerpo de Marines.

Objetivos del Marco SAIL

El marco SAIL tiene como objetivos principales:

  • Abordar el paisaje de amenazas proporcionando una biblioteca detallada de riesgos específicos de IA.
  • Definir capacidades y controles necesarios para un programa de seguridad robusto en IA.
  • Facilitar y acelerar la adopción segura de IA mientras se cumplen los requisitos de cumplimiento de los usuarios de IA y sus industrias específicas.

Principios Fundamentales de SAIL

El marco SAIL, que se describe en un documento técnico detallado, se «armoniza» con y se basa en estándares existentes, específicamente:

  • La gobernanza de gestión de riesgos del NIST AI Risk Management Framework.
  • Las estructuras de sistemas de gestión de ISO 42001.
  • La identificación de vulnerabilidades en el Top 10 de OWASP para LLMs.
  • La identificación de riesgos proporcionada por marcos como el Databricks AI Security Framework.

El marco SAIL sirve como la metodología general que cierra las brechas de comunicación entre el desarrollo de IA, MLOps, LLMOps, seguridad y equipos de gobernanza. Este enfoque colaborativo y basado en procesos asegura que la seguridad se convierta en una parte integral del viaje de IA — desde la creación de políticas hasta el monitoreo en tiempo de ejecución — en lugar de ser una reflexión tardía.

Las Siete Fases Fundamentales de SAIL

El documento detalla riesgos dentro de cada una de las siete categorías:

1. Plan: Política de IA y Experimentación Segura

Esta fase cubre la necesidad de alinear la IA con los objetivos comerciales, requisitos regulatorios y estándares éticos. Se basa en la modelación de amenazas para identificar riesgos de IA desde el principio.

Ejemplos de riesgos: política de IA inadecuada, desalineación de gobernanza, mapeo de cumplimiento inadecuado.

2. Código/Sin Código: Descubrimiento de Activos de IA

Para abordar la expansión de activos y problemas relacionados como el Shadow AI, esta fase se centra en descubrir y documentar cada modelo, conjunto de datos y herramienta de IA.

Ejemplos de riesgos: inventario de activos incompleto, despliegue de Shadow AI, integraciones de terceros no identificadas.

3. Construir: Gestión de la Postura de Seguridad de IA

Esta fase se centra en modelar la postura de seguridad del sistema y priorizar protecciones basadas en riesgos.

Ejemplos de riesgos: problemas de integridad y envenenamiento de datos, inserción o manipulación de puertas traseras en modelos, bibliotecas y marcos de IA vulnerables.

4. Probar: Red Teaming de IA

Las pruebas de red teaming desafían suposiciones, validan defensas e identifican vulnerabilidades antes de que las amenazas reales las exploten.

Ejemplos de riesgos: modelos no probados, cobertura incompleta de red teaming, falta de un proceso de evaluación de riesgos.

5. Desplegar: Guardrails en Tiempo Real

Esta fase introduce salvaguardias que operan en tiempo real, incluyendo filtrado de entradas y sanitización de salidas.

Ejemplos de riesgos: configuración insegura de endpoints API, actualización o manipulación no autorizada de prompts del sistema.

6. Operar: Entornos de Ejecución Segura

Se centra en crear entornos aislados para acciones de alto riesgo, limitando el impacto si algo sale mal.

Ejemplos de riesgos: abuso de ejecución de código autónomo, invocación de API/herramientas sin restricciones.

7. Monitorear: Trazabilidad de Actividades de IA

Mediante el monitoreo continuo del comportamiento y rendimiento de la IA, los equipos pueden identificar desviaciones y responder a incidentes.

Ejemplos de riesgos: registro de interacciones de IA insuficiente, alertas de seguridad en tiempo real faltantes.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...