CrowdStrike obtiene certificación ISO para la gestión de IA en ciberseguridad

CrowdStrike obtiene un impulso en la gobernanza de IA con la certificación ISO

CrowdStrike ha obtenido la certificación ISO/IEC 42001:2023 por su enfoque en la gestión de la inteligencia artificial en sus productos de ciberseguridad. Esta certificación abarca partes de su plataforma Falcon, incluyendo la Seguridad de Endpoint de CrowdStrike, Falcon Insight XDR y Charlotte AI.

Requisitos de la norma ISO/IEC 42001:2023

La norma establece requisitos para un sistema de gestión de IA. Las organizaciones la utilizan para estructurar procesos de gobernanza, documentar controles de riesgo y demostrar supervisión de los sistemas de IA. CrowdStrike ha indicado que un organismo de certificación independiente y acreditado llevó a cabo la auditoría, evaluando su sistema de gestión de IA, incluyendo gobernanza, políticas, gestión de riesgos y prácticas de desarrollo.

Enfoque en la gobernanza

La certificación se produce en un contexto donde los reguladores y organismos de estándares aumentan la supervisión de la IA en productos comerciales. Los equipos de seguridad también enfrentan presión por parte de los clientes y las juntas sobre cómo los proveedores construyen y operan las características de IA. CrowdStrike ha posicionado esta certificación como una señal de madurez en los procesos de desarrollo y operación de IA en su conjunto de productos.

Según declaraciones de la compañía, CrowdStrike es una de las primeras empresas de ciberseguridad en lograr la certificación ISO 42001, que es el primer estándar mundial para sistemas de gestión de IA.

Alcance del producto

La auditoría abarca la «ciberseguridad impulsada por IA» a través de las funciones centrales de la plataforma Falcon. Esto se relaciona con sus herramientas de seguridad de endpoint y detección, así como con Charlotte AI, que se comercializa como una capa de IA para operaciones de seguridad.

CrowdStrike ha establecido la certificación en el contexto del comportamiento de los atacantes habilitados por IA, señalando que los adversarios utilizan la IA para escalar sus actividades más rápido de lo que los defensores pueden responder. Esto requiere que los defensores operen con gobernanza y responsabilidad, contrastando su comportamiento con el de los atacantes.

Charlotte AI

Charlotte AI trabaja a lo largo del ciclo de vida de la seguridad, utilizando «agentes inteligentes» y automatización para tareas en operaciones de seguridad. La compañía describe el producto como utilizando un modelo de «autonomía limitada», que mantiene las decisiones bajo la supervisión del equipo de seguridad y define cuándo pueden ocurrir acciones automatizadas.

Contexto del mercado

ISO/IEC 42001:2023 es un estándar de sistema de gestión específico para IA que las empresas pueden utilizar junto con otros marcos de seguridad y garantía. Proporciona una estructura formal para la gobernanza interna y la auditoría externa de los procesos de IA. Los proveedores de ciberseguridad cada vez más comercializan funciones de IA para detección, triaje y flujos de respuesta. Los compradores en industrias reguladas a menudo piden a los proveedores evidencias de controles en el desarrollo de modelos, manejo de datos y supervisión humana.

CrowdStrike ha afirmado que la certificación refuerza la confianza en su gobernanza de IA y ha vinculado el resultado de la auditoría a la forma en que opera la IA en la plataforma Falcon.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...