Riesgos de Seguridad en la Era de la IA Agente

#Infosec2025: Aumento de la preocupación por los riesgos de seguridad de la IA agentic

La IA agentic y las herramientas de IA que se conectan entre sí sin supervisión humana presentan riesgos de seguridad crecientes, según expertos en el campo. La IA agentic, o sistemas de IA autónomos, opera con un alto grado de autonomía.

Un sistema agentic puede elegir el modelo de IA que utiliza, pasar datos o resultados a otra herramienta de IA, o incluso tomar decisiones sin la aprobación humana. Estos sistemas operan a un ritmo más rápido que las generaciones anteriores basadas en modelos de lenguaje grandes (LLMs), ya que trabajan sin necesidad de que un humano les dé instrucciones o comandos. Además, pueden aprender y adaptarse en el camino.

Dificultades y riesgos asociados

Las dificultades pueden surgir cuando las organizaciones encadenan componentes de IA, como herramientas de IA generativa o chatbots, sin controles adicionales o permiten que los agentes de IA tomen decisiones autónomas. Esta práctica ya se está dando en el ámbito de la TI, en áreas como la escritura de código y la configuración de sistemas.

Esto plantea el riesgo de que las implementaciones de IA de las organizaciones avancen más rápido que los controles de seguridad. Según una investigación de la firma de consultoría EY, solo el 31% de las organizaciones afirma que su implementación de IA es completamente madura. Además, se encontró que la gobernanza de la IA en las empresas se encuentra rezagada en comparación con la innovación en IA.

Con la IA agentic, los riesgos identificados previamente con los LLMs se amplifican. Estos sistemas están sujetos a los mismos riesgos, incluyendo inyección de comandos, envenenamiento, sesgos e inexactitudes.

Sin embargo, los problemas pueden empeorar cuando un agente pasa datos inexactos, sesgados o manipulados a otro. Incluso una tasa de error relativamente baja, de unos pocos puntos porcentuales o menos, puede convertirse en un error significativo si se acumula a través de subsistemas. La seguridad se ve aún más comprometida si las herramientas de IA están conectadas a fuentes de datos fuera del control de la empresa.

“En lugar de que la IA hable directamente con los humanos, está hablando con otros sistemas de IA,” explica un especialista en IA. “Necesitamos una capa de seguridad intermedia para la IA, especialmente si estás recopilando o ingiriendo información desde el exterior.”

Desarrollo acelerado y necesidad de seguridad

El rápido desarrollo de la IA agentic implica que los equipos de seguridad deben trabajar rápidamente para identificar y reportar riesgos potenciales. Según la investigación de EY, el 76% de las empresas ya están utilizando IA agentic o planean hacerlo dentro del año, mientras que solo el 56% dijo estar moderadamente o completamente familiarizado con los riesgos.

“La implementación de IA es diferente a la implementación de tecnologías anteriores,” comenta un líder en IA responsable a nivel global. “No es un ejercicio de ‘una sola vez’, sino un viaje, donde tu gobernanza y controles de IA deben mantener el ritmo con las inversiones en funcionalidad de IA.”

Incidentes y riesgos

Según un director de seguridad para IA, el aumento rápido de la IA agentic está empujando a las organizaciones a ajustar sus controles y políticas, así como a considerar si los sistemas agentic aumentan su superficie de ataque. “La IA agentic ya no está solo en el laboratorio,” señala.

El desarrollo de código es una de las áreas donde se están utilizando agentes. “Si los agentes están escribiendo código, ese código debe ser seguro,” advierte un experto. “Necesitas probar el código generado por agentes, así como proporcionarles las guías adecuadas.”

Los desarrolladores están utilizando IA agentic porque acelera la producción de código. En otras empresas, se están utilizando agentes para mejorar el servicio al cliente y la automatización. A diferencia de los chatbots de generaciones anteriores que se quedaban sin respuestas y debían pasar a un agente humano, los sistemas de IA agentic son más propensos a resolver problemas por sí mismos.

“Los agentes de IA están transformando rápidamente la manera en que las empresas interactúan con los clientes, automatizan operaciones y ofrecen servicios,” afirma un director de estrategia de ciberseguridad. Sin embargo, esto depende de que tanto los desarrolladores de herramientas de IA como los equipos de TI que las implementan se aseguren de que las APIs que enlazan las herramientas de IA también sean seguras.

“Estas interfaces no son solo conectores técnicos, sino que proporcionan los lifelines a través de los cuales los agentes de IA acceden a datos, ejecutan tareas e integran plataformas. Sin una seguridad robusta de API, incluso la IA más avanzada se convierte en una vulnerabilidad en lugar de un activo,” explica.

El riesgo con los sistemas de IA agentic no proviene solo de los componentes en sí, sino de cómo se utilizan juntos. “El riesgo de seguridad está en los huecos,” advierte un experto. Se sugiere realizar pruebas de red teaming para asegurar que cualquier implementación de IA sea segura y utilizar herramientas como facturas de materiales de IA para verificar qué tecnología se está utilizando y dónde, así como documentar conexiones y transferencias entre agentes de IA.

“Los CISOs no tienen visibilidad,” concluye. “Es por eso que tenemos facturas de materiales de IA que permiten ver los modelos y conjuntos de datos que estás utilizando y las dependencias en tu codificación y aplicaciones.”

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...