Estado de la Seguridad AI: Las Empresas se Preparan para Incidentes AI
La seguridad de la inteligencia artificial (AI) en las empresas se encuentra mal gobernada y fragmentada, lo que deja los riesgos más críticos sin gestionar y los incidentes relacionados con la AI se consideran inevitables, según el informe Estado de la Seguridad AI 2025 de Acuvity AI.
“La AI está cambiando la naturaleza del riesgo en sí misma, obligando a los líderes a confrontar incidentes que admiten no estar listos para gestionar”, se señala en el informe.
Hallazgos Clave
- Expectativas de Pérdida de Datos: El 50% de los encuestados espera pérdida de datos a través de herramientas de AI generativa en el próximo año, mientras que el 49% anticipa incidentes de Shadow AI y el 41% está preocupado por amenazas internas impulsadas por AI.
- Gobernanza AI Inadecuada: El 70% admite que carece de una gobernanza AI optimizada, lo que indica que los incidentes de seguridad importantes son esperados y tanto la gobernanza AI como la aplicación en tiempo real permanecen inadecuadas para contenerlos.
- Modelos de Propiedad de Seguridad AI: La propiedad de la seguridad AI se desvía de los modelos típicos. Los CIO lideran en el 29% de las empresas, seguidos por los directores de datos (17%) y los equipos de infraestructura (15%), mientras que los CISOs ocupan el cuarto lugar con un 14.5%.
- Prioridades de Inversión: La seguridad de la cadena de suministro de AI es la principal prioridad de inversión, con un 31% de las organizaciones seleccionándola como su foco principal en los próximos 12 meses, lo que refleja el reconocimiento de que el riesgo abarca todo el ecosistema de la AI.
- Deficiencias en la Gobernanza: El 70% de los encuestados informa que no han alcanzado una gobernanza AI optimizada, que incluiría supervisión a nivel de junta, monitoreo automatizado y políticas actualizadas regularmente.
- Riesgos de Exposición de Datos: El 50% espera fugas de datos a través de herramientas de AI generativa en el próximo año, destacando la exposición de datos como el impacto más probable de la adopción de AI.
- Incidentes de Shadow AI: El 49% espera un incidente de Shadow AI en el próximo año, y el 23% dice que es una de las áreas donde están menos preparados. Las principales preocupaciones incluyen el uso de herramientas de AI generativa independientes sin la aprobación de TI (21%) y funciones de AI integradas en aplicaciones SaaS (18%).
- Fase de Mayor Vulnerabilidad: El runtime se clasifica como la fase más vulnerable (38%) y como el área menos preparada (27%). Los problemas previos al despliegue, como la integridad del conjunto de datos (13%) y la procedencia del modelo (12%), tienen rangos mucho más bajos, lo que subraya que los enfoques tradicionales de seguridad no se alinean con donde se concentran los riesgos de AI.
Este informe proporciona evidencia y puntos de referencia para que los líderes prioricen la gobernanza AI y la seguridad en tiempo real ahora.