CrowdStrike obtiene la certificación ISO/IEC 42001:2023 para la gestión de inteligencia artificial

CrowdStrike asegura la norma ISO 42001 para la gobernanza de la inteligencia artificial

CrowdStrike ha anunciado que ha logrado la certificación ISO/IEC 42001:2023, la norma internacional para sistemas de gestión de inteligencia artificial. Este movimiento abarca la gobernanza de la inteligencia artificial utilizada en su plataforma de ciberseguridad.

La compañía indicó que la certificación abarca productos clave de la plataforma Falcon, incluyendo seguridad de endpoints, detección y respuesta a amenazas, y una capa de inteligencia artificial. Un organismo de certificación independiente y acreditado completó una auditoría externa para evaluar el sistema de gestión de inteligencia artificial de la empresa.

Requisitos de la norma ISO/IEC 42001:2023

La norma establece requisitos para organizaciones que establecen, implementan, mantienen y mejoran continuamente un sistema de gestión de inteligencia artificial. Las empresas han comenzado a utilizar este estándar como parte de un trabajo más amplio en la gobernanza de la inteligencia artificial a medida que la regulación se desarrolla en los principales mercados.

La certificación es presentada como evidencia de lo que se describe como gobernanza responsable de la inteligencia artificial. La compañía afirmó que opera la inteligencia artificial de manera «segura, transparente y bajo control humano».

Importancia de la certificación en ciberseguridad

La empresa se posiciona como una de las primeras en obtener la certificación ISO 42001, considerada la primera norma para sistemas de gestión de inteligencia artificial. La gobernanza responsable de la inteligencia artificial es fundamental para un proveedor de ciberseguridad. Esta certificación valida la madurez, disciplina y liderazgo detrás del desarrollo y operación de la inteligencia artificial en la plataforma Falcon.

La auditoría revisó la gobernanza, políticas, gestión de riesgos y prácticas de desarrollo para el diseño, implementación y operación de sistemas de inteligencia artificial. El proceso evaluó cómo se diseñan, desarrollan y operan los sistemas de inteligencia artificial utilizados en el trabajo de ciberseguridad.

Desafíos en la ciberseguridad

La compañía posicionó la certificación dentro de un cambio más amplio en la ciberseguridad, ya que los atacantes adoptan inteligencia artificial generativa y automatización para el phishing, desarrollo de malware y ingeniería social. Los adversarios «están utilizando la inteligencia artificial para escalar ataques más rápido de lo que los defensores pueden responder».

La plataforma incluye seguridad de endpoints, detección de amenazas y servicios gestionados. La certificación abarca productos que incluyen la capa de inteligencia artificial, que se describe como nativa para la seguridad.

Autonomía y control en operaciones de seguridad

La compañía ha declarado que la inteligencia artificial opera dentro de un «modelo de autonomía limitada», asegurando que los equipos de seguridad mantengan supervisión sobre las decisiones impulsadas por inteligencia artificial y definan con precisión cuándo ocurren acciones automatizadas.

Además, se aplican rigurosas gobernanzas y controles a los datos, modelos y agentes de inteligencia artificial, diseñados específicamente para «entornos altamente regulados».

Conclusión

La certificación ISO/IEC 42001:2023 ha surgido como uno de varios marcos que las empresas citan al formalizar la gobernanza interna de la inteligencia artificial. Se sitúa junto a estándares de gestión de riesgos y regímenes de cumplimiento sectoriales que incluyen expectativas sobre transparencia, responsabilidad y supervisión.

Esta certificación refleja un enfoque «auditado externamente» para la inteligencia artificial responsable, cubriendo el diseño, desarrollo y operación de la ciberseguridad impulsada por inteligencia artificial.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...