El Marco de Seguridad AI de Pillar: Un Avance Clave en la Industria

El Marco de Seguridad de Pillar Aporta al Creciente Impulso de Seguridad en IA de la Industria

En un esfuerzo por proporcionar estrategias, gobernanza y herramientas que aseguren operaciones seguras para la IA y los agentes, la startup Pillar Security ha codificado un marco de seguridad en IA que representa un avance significativo en la industria. Este marco, conocido como Secure AI Lifecycle Framework (SAIL), fue desarrollado con la experiencia de expertos en ciberseguridad de más de dos docenas de empresas.

Entre los participantes se encuentran grandes nombres de la industria como AT&T, Corning, Philip Morris, Microsoft, Google Cloud, SAP y ServiceNow.

El marco SAIL llega tras otros desarrollos críticos en seguridad de IA que buscan hacer que los datos y las aplicaciones sean seguros a medida que aumenta el uso de la tecnología subyacente. Estas iniciativas incluyen:

  • Red Teaming para combatir una variedad de categorías de amenazas de IA.
  • Una visión en profundidad del sistema de control de Copilot de Microsoft para seguridad y gobernanza.
  • Principales conclusiones sobre datos y gobernanza de la estrategia de IA del Cuerpo de Marines.

Objetivos del Marco SAIL

El marco SAIL tiene como objetivos principales:

  • Abordar el paisaje de amenazas proporcionando una biblioteca detallada de riesgos específicos de IA.
  • Definir capacidades y controles necesarios para un programa de seguridad robusto en IA.
  • Facilitar y acelerar la adopción segura de IA mientras se cumplen los requisitos de cumplimiento de los usuarios de IA y sus industrias específicas.

Principios Fundamentales de SAIL

El marco SAIL, que se describe en un documento técnico detallado, se «armoniza» con y se basa en estándares existentes, específicamente:

  • La gobernanza de gestión de riesgos del NIST AI Risk Management Framework.
  • Las estructuras de sistemas de gestión de ISO 42001.
  • La identificación de vulnerabilidades en el Top 10 de OWASP para LLMs.
  • La identificación de riesgos proporcionada por marcos como el Databricks AI Security Framework.

El marco SAIL sirve como la metodología general que cierra las brechas de comunicación entre el desarrollo de IA, MLOps, LLMOps, seguridad y equipos de gobernanza. Este enfoque colaborativo y basado en procesos asegura que la seguridad se convierta en una parte integral del viaje de IA — desde la creación de políticas hasta el monitoreo en tiempo de ejecución — en lugar de ser una reflexión tardía.

Las Siete Fases Fundamentales de SAIL

El documento detalla riesgos dentro de cada una de las siete categorías:

1. Plan: Política de IA y Experimentación Segura

Esta fase cubre la necesidad de alinear la IA con los objetivos comerciales, requisitos regulatorios y estándares éticos. Se basa en la modelación de amenazas para identificar riesgos de IA desde el principio.

Ejemplos de riesgos: política de IA inadecuada, desalineación de gobernanza, mapeo de cumplimiento inadecuado.

2. Código/Sin Código: Descubrimiento de Activos de IA

Para abordar la expansión de activos y problemas relacionados como el Shadow AI, esta fase se centra en descubrir y documentar cada modelo, conjunto de datos y herramienta de IA.

Ejemplos de riesgos: inventario de activos incompleto, despliegue de Shadow AI, integraciones de terceros no identificadas.

3. Construir: Gestión de la Postura de Seguridad de IA

Esta fase se centra en modelar la postura de seguridad del sistema y priorizar protecciones basadas en riesgos.

Ejemplos de riesgos: problemas de integridad y envenenamiento de datos, inserción o manipulación de puertas traseras en modelos, bibliotecas y marcos de IA vulnerables.

4. Probar: Red Teaming de IA

Las pruebas de red teaming desafían suposiciones, validan defensas e identifican vulnerabilidades antes de que las amenazas reales las exploten.

Ejemplos de riesgos: modelos no probados, cobertura incompleta de red teaming, falta de un proceso de evaluación de riesgos.

5. Desplegar: Guardrails en Tiempo Real

Esta fase introduce salvaguardias que operan en tiempo real, incluyendo filtrado de entradas y sanitización de salidas.

Ejemplos de riesgos: configuración insegura de endpoints API, actualización o manipulación no autorizada de prompts del sistema.

6. Operar: Entornos de Ejecución Segura

Se centra en crear entornos aislados para acciones de alto riesgo, limitando el impacto si algo sale mal.

Ejemplos de riesgos: abuso de ejecución de código autónomo, invocación de API/herramientas sin restricciones.

7. Monitorear: Trazabilidad de Actividades de IA

Mediante el monitoreo continuo del comportamiento y rendimiento de la IA, los equipos pueden identificar desviaciones y responder a incidentes.

Ejemplos de riesgos: registro de interacciones de IA insuficiente, alertas de seguridad en tiempo real faltantes.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...