AI, amenazas internas y brechas de gobernanza en ciberseguridad

Revisión del RSAC: IA Agentiva, Brechas en la Gobernanza y Amenazas Internas

La inteligencia artificial (IA) fue un tema central en la conferencia RSAC de este año, marcando su dominio en cada conversación. Con un récord de casi 44,000 asistentes, 730 oradores y 650 expositores, la exposición de la IA en el ámbito de la ciberseguridad fue innegable.

A pesar de que se esperaba que la IA dominara las discusiones, la profundidad con la que se integró en cada sesión de estrategia, conversación con clientes y diálogos informales fue sorprendente. Esto plantea la cuestión de cómo la línea entre la realidad y el hype puede difuminarse rápidamente.

Adopción de IA en Ciberseguridad

Nos encontramos en una fase de implementación agresiva de la IA en la ciberseguridad. Según la Cloud Security Alliance, el 90% de las organizaciones están adoptando IA generativa para la seguridad o planean hacerlo. Esta tecnología puede mejorar las capacidades de los profesionales de TI y liberar tiempo para tareas más valiosas.

Por otro lado, los cibercriminales también están utilizando estas innovaciones, lo que convierte a la IA en un riesgo significativo. La aparición de malware potenciado por IA se ha convertido en una de las principales preocupaciones para los líderes empresariales.

El término “IA agentiva” fue recurrente entre los asistentes, definiéndose como sistemas de IA que actúan de manera autónoma. Sin embargo, surge la pregunta de si esto representa una innovación genuina o simplemente un lenguaje de marketing renovado.

Los líderes de seguridad deben enfocarse en los usuarios y entender su participación en la IA en la sombra, donde el 72% del uso de IA generativa en las empresas proviene de TI en la sombra. La necesidad de una integración más profunda y una gobernanza adecuada se vuelve crucial.

Brechas en la Gobernanza de la IA

Las comités de gobernanza de la IA a menudo se centran únicamente en la privacidad y la seguridad, descuidando aspectos más amplios como la responsabilidad legal, la exposición a licencias y la racionalización del uso de la tecnología. Esto lleva a las organizaciones a aprobar herramientas de IA sin realizar evaluaciones de riesgo completas.

Los líderes deben pasar de un enfoque reactivamente seguro a una planificación de IA más amplia, guiada por objetivos organizacionales estratégicos, en lugar de la mera ejecución funcional.

Amenazas Internas en Proliferación

Las amenazas internas son una preocupación antigua en la ciberseguridad. Se discutió la creciente preocupación por estafas que involucran a empresas de tecnología que contratan a trabajadores remotos que son en realidad operativos cibernéticos de Corea del Norte.

Esto resalta la necesidad de una mejor alineación entre los equipos de RRHH, legal y seguridad para detectar documentos de empleo falsificados y vulnerabilidades en las plataformas de contratación. Lamentablemente, no hay suficientes conversaciones en curso sobre estas amenazas emergentes.

La conferencia RSAC ha reflejado el estado actual de la ciberseguridad, con tendencias y desafíos impactantes. Si bien la necesidad de responsabilidad y gobernanza proactiva es evidente, los líderes de seguridad deben tomar medidas para mitigar los resultados dañinos de la IA y los insiders malintencionados.

Con suerte, en eventos futuros, se discutirá cómo las organizaciones están logrando gestionar estos desafíos de manera más efectiva.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...