AI, amenazas internas y brechas de gobernanza en ciberseguridad

Revisión del RSAC: IA Agentiva, Brechas en la Gobernanza y Amenazas Internas

La inteligencia artificial (IA) fue un tema central en la conferencia RSAC de este año, marcando su dominio en cada conversación. Con un récord de casi 44,000 asistentes, 730 oradores y 650 expositores, la exposición de la IA en el ámbito de la ciberseguridad fue innegable.

A pesar de que se esperaba que la IA dominara las discusiones, la profundidad con la que se integró en cada sesión de estrategia, conversación con clientes y diálogos informales fue sorprendente. Esto plantea la cuestión de cómo la línea entre la realidad y el hype puede difuminarse rápidamente.

Adopción de IA en Ciberseguridad

Nos encontramos en una fase de implementación agresiva de la IA en la ciberseguridad. Según la Cloud Security Alliance, el 90% de las organizaciones están adoptando IA generativa para la seguridad o planean hacerlo. Esta tecnología puede mejorar las capacidades de los profesionales de TI y liberar tiempo para tareas más valiosas.

Por otro lado, los cibercriminales también están utilizando estas innovaciones, lo que convierte a la IA en un riesgo significativo. La aparición de malware potenciado por IA se ha convertido en una de las principales preocupaciones para los líderes empresariales.

El término “IA agentiva” fue recurrente entre los asistentes, definiéndose como sistemas de IA que actúan de manera autónoma. Sin embargo, surge la pregunta de si esto representa una innovación genuina o simplemente un lenguaje de marketing renovado.

Los líderes de seguridad deben enfocarse en los usuarios y entender su participación en la IA en la sombra, donde el 72% del uso de IA generativa en las empresas proviene de TI en la sombra. La necesidad de una integración más profunda y una gobernanza adecuada se vuelve crucial.

Brechas en la Gobernanza de la IA

Las comités de gobernanza de la IA a menudo se centran únicamente en la privacidad y la seguridad, descuidando aspectos más amplios como la responsabilidad legal, la exposición a licencias y la racionalización del uso de la tecnología. Esto lleva a las organizaciones a aprobar herramientas de IA sin realizar evaluaciones de riesgo completas.

Los líderes deben pasar de un enfoque reactivamente seguro a una planificación de IA más amplia, guiada por objetivos organizacionales estratégicos, en lugar de la mera ejecución funcional.

Amenazas Internas en Proliferación

Las amenazas internas son una preocupación antigua en la ciberseguridad. Se discutió la creciente preocupación por estafas que involucran a empresas de tecnología que contratan a trabajadores remotos que son en realidad operativos cibernéticos de Corea del Norte.

Esto resalta la necesidad de una mejor alineación entre los equipos de RRHH, legal y seguridad para detectar documentos de empleo falsificados y vulnerabilidades en las plataformas de contratación. Lamentablemente, no hay suficientes conversaciones en curso sobre estas amenazas emergentes.

La conferencia RSAC ha reflejado el estado actual de la ciberseguridad, con tendencias y desafíos impactantes. Si bien la necesidad de responsabilidad y gobernanza proactiva es evidente, los líderes de seguridad deben tomar medidas para mitigar los resultados dañinos de la IA y los insiders malintencionados.

Con suerte, en eventos futuros, se discutirá cómo las organizaciones están logrando gestionar estos desafíos de manera más efectiva.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...