Riesgos de Seguridad en la Era de la IA Agente

#Infosec2025: Aumento de la preocupación por los riesgos de seguridad de la IA agentic

La IA agentic y las herramientas de IA que se conectan entre sí sin supervisión humana presentan riesgos de seguridad crecientes, según expertos en el campo. La IA agentic, o sistemas de IA autónomos, opera con un alto grado de autonomía.

Un sistema agentic puede elegir el modelo de IA que utiliza, pasar datos o resultados a otra herramienta de IA, o incluso tomar decisiones sin la aprobación humana. Estos sistemas operan a un ritmo más rápido que las generaciones anteriores basadas en modelos de lenguaje grandes (LLMs), ya que trabajan sin necesidad de que un humano les dé instrucciones o comandos. Además, pueden aprender y adaptarse en el camino.

Dificultades y riesgos asociados

Las dificultades pueden surgir cuando las organizaciones encadenan componentes de IA, como herramientas de IA generativa o chatbots, sin controles adicionales o permiten que los agentes de IA tomen decisiones autónomas. Esta práctica ya se está dando en el ámbito de la TI, en áreas como la escritura de código y la configuración de sistemas.

Esto plantea el riesgo de que las implementaciones de IA de las organizaciones avancen más rápido que los controles de seguridad. Según una investigación de la firma de consultoría EY, solo el 31% de las organizaciones afirma que su implementación de IA es completamente madura. Además, se encontró que la gobernanza de la IA en las empresas se encuentra rezagada en comparación con la innovación en IA.

Con la IA agentic, los riesgos identificados previamente con los LLMs se amplifican. Estos sistemas están sujetos a los mismos riesgos, incluyendo inyección de comandos, envenenamiento, sesgos e inexactitudes.

Sin embargo, los problemas pueden empeorar cuando un agente pasa datos inexactos, sesgados o manipulados a otro. Incluso una tasa de error relativamente baja, de unos pocos puntos porcentuales o menos, puede convertirse en un error significativo si se acumula a través de subsistemas. La seguridad se ve aún más comprometida si las herramientas de IA están conectadas a fuentes de datos fuera del control de la empresa.

“En lugar de que la IA hable directamente con los humanos, está hablando con otros sistemas de IA,” explica un especialista en IA. “Necesitamos una capa de seguridad intermedia para la IA, especialmente si estás recopilando o ingiriendo información desde el exterior.”

Desarrollo acelerado y necesidad de seguridad

El rápido desarrollo de la IA agentic implica que los equipos de seguridad deben trabajar rápidamente para identificar y reportar riesgos potenciales. Según la investigación de EY, el 76% de las empresas ya están utilizando IA agentic o planean hacerlo dentro del año, mientras que solo el 56% dijo estar moderadamente o completamente familiarizado con los riesgos.

“La implementación de IA es diferente a la implementación de tecnologías anteriores,” comenta un líder en IA responsable a nivel global. “No es un ejercicio de ‘una sola vez’, sino un viaje, donde tu gobernanza y controles de IA deben mantener el ritmo con las inversiones en funcionalidad de IA.”

Incidentes y riesgos

Según un director de seguridad para IA, el aumento rápido de la IA agentic está empujando a las organizaciones a ajustar sus controles y políticas, así como a considerar si los sistemas agentic aumentan su superficie de ataque. “La IA agentic ya no está solo en el laboratorio,” señala.

El desarrollo de código es una de las áreas donde se están utilizando agentes. “Si los agentes están escribiendo código, ese código debe ser seguro,” advierte un experto. “Necesitas probar el código generado por agentes, así como proporcionarles las guías adecuadas.”

Los desarrolladores están utilizando IA agentic porque acelera la producción de código. En otras empresas, se están utilizando agentes para mejorar el servicio al cliente y la automatización. A diferencia de los chatbots de generaciones anteriores que se quedaban sin respuestas y debían pasar a un agente humano, los sistemas de IA agentic son más propensos a resolver problemas por sí mismos.

“Los agentes de IA están transformando rápidamente la manera en que las empresas interactúan con los clientes, automatizan operaciones y ofrecen servicios,” afirma un director de estrategia de ciberseguridad. Sin embargo, esto depende de que tanto los desarrolladores de herramientas de IA como los equipos de TI que las implementan se aseguren de que las APIs que enlazan las herramientas de IA también sean seguras.

“Estas interfaces no son solo conectores técnicos, sino que proporcionan los lifelines a través de los cuales los agentes de IA acceden a datos, ejecutan tareas e integran plataformas. Sin una seguridad robusta de API, incluso la IA más avanzada se convierte en una vulnerabilidad en lugar de un activo,” explica.

El riesgo con los sistemas de IA agentic no proviene solo de los componentes en sí, sino de cómo se utilizan juntos. “El riesgo de seguridad está en los huecos,” advierte un experto. Se sugiere realizar pruebas de red teaming para asegurar que cualquier implementación de IA sea segura y utilizar herramientas como facturas de materiales de IA para verificar qué tecnología se está utilizando y dónde, así como documentar conexiones y transferencias entre agentes de IA.

“Los CISOs no tienen visibilidad,” concluye. “Es por eso que tenemos facturas de materiales de IA que permiten ver los modelos y conjuntos de datos que estás utilizando y las dependencias en tu codificación y aplicaciones.”

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...