#Infosec2025: Aumento de la preocupación por los riesgos de seguridad de la IA agentic
La IA agentic y las herramientas de IA que se conectan entre sí sin supervisión humana presentan riesgos de seguridad crecientes, según expertos en el campo. La IA agentic, o sistemas de IA autónomos, opera con un alto grado de autonomía.
Un sistema agentic puede elegir el modelo de IA que utiliza, pasar datos o resultados a otra herramienta de IA, o incluso tomar decisiones sin la aprobación humana. Estos sistemas operan a un ritmo más rápido que las generaciones anteriores basadas en modelos de lenguaje grandes (LLMs), ya que trabajan sin necesidad de que un humano les dé instrucciones o comandos. Además, pueden aprender y adaptarse en el camino.
Dificultades y riesgos asociados
Las dificultades pueden surgir cuando las organizaciones encadenan componentes de IA, como herramientas de IA generativa o chatbots, sin controles adicionales o permiten que los agentes de IA tomen decisiones autónomas. Esta práctica ya se está dando en el ámbito de la TI, en áreas como la escritura de código y la configuración de sistemas.
Esto plantea el riesgo de que las implementaciones de IA de las organizaciones avancen más rápido que los controles de seguridad. Según una investigación de la firma de consultoría EY, solo el 31% de las organizaciones afirma que su implementación de IA es completamente madura. Además, se encontró que la gobernanza de la IA en las empresas se encuentra rezagada en comparación con la innovación en IA.
Con la IA agentic, los riesgos identificados previamente con los LLMs se amplifican. Estos sistemas están sujetos a los mismos riesgos, incluyendo inyección de comandos, envenenamiento, sesgos e inexactitudes.
Sin embargo, los problemas pueden empeorar cuando un agente pasa datos inexactos, sesgados o manipulados a otro. Incluso una tasa de error relativamente baja, de unos pocos puntos porcentuales o menos, puede convertirse en un error significativo si se acumula a través de subsistemas. La seguridad se ve aún más comprometida si las herramientas de IA están conectadas a fuentes de datos fuera del control de la empresa.
“En lugar de que la IA hable directamente con los humanos, está hablando con otros sistemas de IA,” explica un especialista en IA. “Necesitamos una capa de seguridad intermedia para la IA, especialmente si estás recopilando o ingiriendo información desde el exterior.”
Desarrollo acelerado y necesidad de seguridad
El rápido desarrollo de la IA agentic implica que los equipos de seguridad deben trabajar rápidamente para identificar y reportar riesgos potenciales. Según la investigación de EY, el 76% de las empresas ya están utilizando IA agentic o planean hacerlo dentro del año, mientras que solo el 56% dijo estar moderadamente o completamente familiarizado con los riesgos.
“La implementación de IA es diferente a la implementación de tecnologías anteriores,” comenta un líder en IA responsable a nivel global. “No es un ejercicio de ‘una sola vez’, sino un viaje, donde tu gobernanza y controles de IA deben mantener el ritmo con las inversiones en funcionalidad de IA.”
Incidentes y riesgos
Según un director de seguridad para IA, el aumento rápido de la IA agentic está empujando a las organizaciones a ajustar sus controles y políticas, así como a considerar si los sistemas agentic aumentan su superficie de ataque. “La IA agentic ya no está solo en el laboratorio,” señala.
El desarrollo de código es una de las áreas donde se están utilizando agentes. “Si los agentes están escribiendo código, ese código debe ser seguro,” advierte un experto. “Necesitas probar el código generado por agentes, así como proporcionarles las guías adecuadas.”
Los desarrolladores están utilizando IA agentic porque acelera la producción de código. En otras empresas, se están utilizando agentes para mejorar el servicio al cliente y la automatización. A diferencia de los chatbots de generaciones anteriores que se quedaban sin respuestas y debían pasar a un agente humano, los sistemas de IA agentic son más propensos a resolver problemas por sí mismos.
“Los agentes de IA están transformando rápidamente la manera en que las empresas interactúan con los clientes, automatizan operaciones y ofrecen servicios,” afirma un director de estrategia de ciberseguridad. Sin embargo, esto depende de que tanto los desarrolladores de herramientas de IA como los equipos de TI que las implementan se aseguren de que las APIs que enlazan las herramientas de IA también sean seguras.
“Estas interfaces no son solo conectores técnicos, sino que proporcionan los lifelines a través de los cuales los agentes de IA acceden a datos, ejecutan tareas e integran plataformas. Sin una seguridad robusta de API, incluso la IA más avanzada se convierte en una vulnerabilidad en lugar de un activo,” explica.
El riesgo con los sistemas de IA agentic no proviene solo de los componentes en sí, sino de cómo se utilizan juntos. “El riesgo de seguridad está en los huecos,” advierte un experto. Se sugiere realizar pruebas de red teaming para asegurar que cualquier implementación de IA sea segura y utilizar herramientas como facturas de materiales de IA para verificar qué tecnología se está utilizando y dónde, así como documentar conexiones y transferencias entre agentes de IA.
“Los CISOs no tienen visibilidad,” concluye. “Es por eso que tenemos facturas de materiales de IA que permiten ver los modelos y conjuntos de datos que estás utilizando y las dependencias en tu codificación y aplicaciones.”