El Marco de Seguridad AI de Pillar: Un Avance Clave en la Industria

El Marco de Seguridad de Pillar Aporta al Creciente Impulso de Seguridad en IA de la Industria

En un esfuerzo por proporcionar estrategias, gobernanza y herramientas que aseguren operaciones seguras para la IA y los agentes, la startup Pillar Security ha codificado un marco de seguridad en IA que representa un avance significativo en la industria. Este marco, conocido como Secure AI Lifecycle Framework (SAIL), fue desarrollado con la experiencia de expertos en ciberseguridad de más de dos docenas de empresas.

Entre los participantes se encuentran grandes nombres de la industria como AT&T, Corning, Philip Morris, Microsoft, Google Cloud, SAP y ServiceNow.

El marco SAIL llega tras otros desarrollos críticos en seguridad de IA que buscan hacer que los datos y las aplicaciones sean seguros a medida que aumenta el uso de la tecnología subyacente. Estas iniciativas incluyen:

  • Red Teaming para combatir una variedad de categorías de amenazas de IA.
  • Una visión en profundidad del sistema de control de Copilot de Microsoft para seguridad y gobernanza.
  • Principales conclusiones sobre datos y gobernanza de la estrategia de IA del Cuerpo de Marines.

Objetivos del Marco SAIL

El marco SAIL tiene como objetivos principales:

  • Abordar el paisaje de amenazas proporcionando una biblioteca detallada de riesgos específicos de IA.
  • Definir capacidades y controles necesarios para un programa de seguridad robusto en IA.
  • Facilitar y acelerar la adopción segura de IA mientras se cumplen los requisitos de cumplimiento de los usuarios de IA y sus industrias específicas.

Principios Fundamentales de SAIL

El marco SAIL, que se describe en un documento técnico detallado, se «armoniza» con y se basa en estándares existentes, específicamente:

  • La gobernanza de gestión de riesgos del NIST AI Risk Management Framework.
  • Las estructuras de sistemas de gestión de ISO 42001.
  • La identificación de vulnerabilidades en el Top 10 de OWASP para LLMs.
  • La identificación de riesgos proporcionada por marcos como el Databricks AI Security Framework.

El marco SAIL sirve como la metodología general que cierra las brechas de comunicación entre el desarrollo de IA, MLOps, LLMOps, seguridad y equipos de gobernanza. Este enfoque colaborativo y basado en procesos asegura que la seguridad se convierta en una parte integral del viaje de IA — desde la creación de políticas hasta el monitoreo en tiempo de ejecución — en lugar de ser una reflexión tardía.

Las Siete Fases Fundamentales de SAIL

El documento detalla riesgos dentro de cada una de las siete categorías:

1. Plan: Política de IA y Experimentación Segura

Esta fase cubre la necesidad de alinear la IA con los objetivos comerciales, requisitos regulatorios y estándares éticos. Se basa en la modelación de amenazas para identificar riesgos de IA desde el principio.

Ejemplos de riesgos: política de IA inadecuada, desalineación de gobernanza, mapeo de cumplimiento inadecuado.

2. Código/Sin Código: Descubrimiento de Activos de IA

Para abordar la expansión de activos y problemas relacionados como el Shadow AI, esta fase se centra en descubrir y documentar cada modelo, conjunto de datos y herramienta de IA.

Ejemplos de riesgos: inventario de activos incompleto, despliegue de Shadow AI, integraciones de terceros no identificadas.

3. Construir: Gestión de la Postura de Seguridad de IA

Esta fase se centra en modelar la postura de seguridad del sistema y priorizar protecciones basadas en riesgos.

Ejemplos de riesgos: problemas de integridad y envenenamiento de datos, inserción o manipulación de puertas traseras en modelos, bibliotecas y marcos de IA vulnerables.

4. Probar: Red Teaming de IA

Las pruebas de red teaming desafían suposiciones, validan defensas e identifican vulnerabilidades antes de que las amenazas reales las exploten.

Ejemplos de riesgos: modelos no probados, cobertura incompleta de red teaming, falta de un proceso de evaluación de riesgos.

5. Desplegar: Guardrails en Tiempo Real

Esta fase introduce salvaguardias que operan en tiempo real, incluyendo filtrado de entradas y sanitización de salidas.

Ejemplos de riesgos: configuración insegura de endpoints API, actualización o manipulación no autorizada de prompts del sistema.

6. Operar: Entornos de Ejecución Segura

Se centra en crear entornos aislados para acciones de alto riesgo, limitando el impacto si algo sale mal.

Ejemplos de riesgos: abuso de ejecución de código autónomo, invocación de API/herramientas sin restricciones.

7. Monitorear: Trazabilidad de Actividades de IA

Mediante el monitoreo continuo del comportamiento y rendimiento de la IA, los equipos pueden identificar desviaciones y responder a incidentes.

Ejemplos de riesgos: registro de interacciones de IA insuficiente, alertas de seguridad en tiempo real faltantes.

More Insights

Guía Práctica de IA Responsable para Desarrolladores .NET

La era de la Inteligencia Artificial (IA) está sucediendo ahora, y aunque ofrece velocidad y precisión en sectores como la banca y la salud, plantea desafíos éticos sobre su confianza. Para abordar...

Ley de Transparencia en IA: Un Hito en California

Los legisladores de California han hecho historia al aprobar una ley pionera sobre la transparencia en inteligencia artificial que se centra en los "modelos fronterizos", los sistemas de inteligencia...

Desafíos legales del uso de IA en el proceso de contratación

El uso de herramientas de IA en el proceso de solicitud permite a las empresas optimizar sus procesos, pero los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no...

Los Cuatro Pilares de los Guardrails en GenAI: Construyendo Sistemas de IA Responsables

A medida que la inteligencia artificial generativa transforma cómo operan las empresas, es fundamental implementar sistemas de guardrails para asegurar un despliegue responsable. Estos guardrails, que...

IA Responsable para Mercados Emergentes: Inclusión desde el Diseño

La inteligencia artificial está transformando el mundo, pero los beneficios no llegan a todos de manera equitativa. Es fundamental diseñar sistemas de IA inclusivos que aborden las barreras de...