AI, amenazas internas y brechas de gobernanza en ciberseguridad

Revisión del RSAC: IA Agentiva, Brechas en la Gobernanza y Amenazas Internas

La inteligencia artificial (IA) fue un tema central en la conferencia RSAC de este año, marcando su dominio en cada conversación. Con un récord de casi 44,000 asistentes, 730 oradores y 650 expositores, la exposición de la IA en el ámbito de la ciberseguridad fue innegable.

A pesar de que se esperaba que la IA dominara las discusiones, la profundidad con la que se integró en cada sesión de estrategia, conversación con clientes y diálogos informales fue sorprendente. Esto plantea la cuestión de cómo la línea entre la realidad y el hype puede difuminarse rápidamente.

Adopción de IA en Ciberseguridad

Nos encontramos en una fase de implementación agresiva de la IA en la ciberseguridad. Según la Cloud Security Alliance, el 90% de las organizaciones están adoptando IA generativa para la seguridad o planean hacerlo. Esta tecnología puede mejorar las capacidades de los profesionales de TI y liberar tiempo para tareas más valiosas.

Por otro lado, los cibercriminales también están utilizando estas innovaciones, lo que convierte a la IA en un riesgo significativo. La aparición de malware potenciado por IA se ha convertido en una de las principales preocupaciones para los líderes empresariales.

El término “IA agentiva” fue recurrente entre los asistentes, definiéndose como sistemas de IA que actúan de manera autónoma. Sin embargo, surge la pregunta de si esto representa una innovación genuina o simplemente un lenguaje de marketing renovado.

Los líderes de seguridad deben enfocarse en los usuarios y entender su participación en la IA en la sombra, donde el 72% del uso de IA generativa en las empresas proviene de TI en la sombra. La necesidad de una integración más profunda y una gobernanza adecuada se vuelve crucial.

Brechas en la Gobernanza de la IA

Las comités de gobernanza de la IA a menudo se centran únicamente en la privacidad y la seguridad, descuidando aspectos más amplios como la responsabilidad legal, la exposición a licencias y la racionalización del uso de la tecnología. Esto lleva a las organizaciones a aprobar herramientas de IA sin realizar evaluaciones de riesgo completas.

Los líderes deben pasar de un enfoque reactivamente seguro a una planificación de IA más amplia, guiada por objetivos organizacionales estratégicos, en lugar de la mera ejecución funcional.

Amenazas Internas en Proliferación

Las amenazas internas son una preocupación antigua en la ciberseguridad. Se discutió la creciente preocupación por estafas que involucran a empresas de tecnología que contratan a trabajadores remotos que son en realidad operativos cibernéticos de Corea del Norte.

Esto resalta la necesidad de una mejor alineación entre los equipos de RRHH, legal y seguridad para detectar documentos de empleo falsificados y vulnerabilidades en las plataformas de contratación. Lamentablemente, no hay suficientes conversaciones en curso sobre estas amenazas emergentes.

La conferencia RSAC ha reflejado el estado actual de la ciberseguridad, con tendencias y desafíos impactantes. Si bien la necesidad de responsabilidad y gobernanza proactiva es evidente, los líderes de seguridad deben tomar medidas para mitigar los resultados dañinos de la IA y los insiders malintencionados.

Con suerte, en eventos futuros, se discutirá cómo las organizaciones están logrando gestionar estos desafíos de manera más efectiva.

More Insights

La nueva realidad de la política internacional de IA

Desde principios de 2025, la dirección estratégica de la política de inteligencia artificial (IA) ha cambiado drásticamente para centrarse en la capacidad de los estados nacionales para "ganar la...

Las organizaciones adoptan IA, pero fallan en su gobernanza

Según una nueva investigación, el 93 por ciento de las empresas en el Reino Unido utilizan IA en alguna capacidad, pero la mayoría carece de los marcos necesarios para gestionar sus riesgos. Solo el...

Gobernanza de Datos en la Nueva Ley de IA de la UE

La Ley de Inteligencia Artificial de la Unión Europea propone un marco para regular la IA, especialmente para los sistemas de "alto riesgo". El Artículo 10 se centra en los datos y la gobernanza de...

Código de Práctica de IA: Implicaciones y Reacciones de la Industria

La Comisión Europea ha publicado un Código de Práctica voluntario para ayudar a la industria a cumplir con las obligaciones de la Ley de IA en relación con la seguridad, la transparencia y los...

Nuevas Normas de Cumplimiento de IA en la UE para Modelos de Alto Riesgo

La Comisión Europea ha publicado directrices para ayudar a las empresas a cumplir con la ley de inteligencia artificial de la UE, que entrará en vigor el 2 de agosto para modelos de IA con riesgos...

Modelos de IA y Riesgos Sistémicos: Cumpliendo con las Normas de la UE

Los modelos de IA con riesgos sistémicos han recibido pautas sobre cómo cumplir con las regulaciones de IA de la UE. Estas orientaciones son esenciales para garantizar la seguridad y la ética en el...

Los Agentes de IA: Un Nuevo Desafío de Seguridad para Empresas

La proliferación de agentes de IA en aplicaciones empresariales está creando un nuevo tipo complejo de tráfico de red, conocido como "tráfico agente". Este fenómeno presenta desafíos significativos en...