Marco de Gobernanza para la IA Agente de Singapur

Lanzamiento del primer marco global de gobernanza para la IA Agentic

El 22 de enero de 2026, se presentó el Modelo de Marco de Gobernanza de IA para la IA Agentic (MGF) en el Foro Económico Mundial 2026, reafirmando el compromiso de mantenerse al día con los rápidos avances en inteligencia artificial (IA).

Este marco representa el primer modelo de gobernanza dedicado a los sistemas de IA agentic, que son agentes de IA capaces de razonar, planificar y ejecutar tareas de manera independiente en nombre de los humanos.

Aunque el MGF no impone obligaciones legales vinculantes, proporciona una fuerte indicación de la trayectoria regulatoria y establece mejores prácticas para la adopción en la industria. El marco se basa en la suite establecida de iniciativas de gobernanza de IA, incluyendo el Marco de Gobernanza de IA de 2019, el marco de pruebas AI Verify y el Piloto Global de Aseguramiento de IA lanzado en 2025. Sin embargo, lo que distingue a este nuevo marco de iniciativas anteriores es su enfoque en los riesgos únicos que plantean las herramientas de IA cada vez más autónomas, como acciones no autorizadas, uso indebido de datos, decisiones sesgadas y disrupciones sistémicas.

¿Qué es la IA Agentic?

La IA Agentic se refiere a sistemas que pueden planificar, razonar y actuar a través de múltiples pasos para lograr objetivos con mínima intervención humana. A diferencia de la IA generativa, que produce resultados en respuesta a indicaciones, la IA agentic puede iniciar acciones, adaptarse a nueva información e interactuar con otros agentes o sistemas para completar tareas de manera autónoma.

En el núcleo de muchos sistemas agentic se encuentran modelos de lenguaje que actúan como el cerebro central del agente. Estos modelos interpretan instrucciones en lenguaje natural, desarrollan estrategias para alcanzar metas y luego activan herramientas conectadas, como calculadoras, calendarios e interfaces de aplicaciones, que permiten al agente realizar tareas como actualizar registros, procesar pagos o controlar dispositivos.

Los sistemas agentic pueden ser determinísticos, produciendo salidas consistentes para entradas idénticas, o no determinísticos, donde los resultados varían incluso con la misma entrada. Esta última introduce imprevisibilidad, lo que requiere un mayor control y gobernanza. En la práctica, la IA agentic a menudo involucra múltiples agentes que trabajan en paralelo, cada uno especializado en una tarea, lo que aumenta la eficiencia pero también complica los riesgos si los errores se propagan a través del sistema.

Riesgos de implementar IA Agentic

Aunque los riesgos como la alucinación y el sesgo ya están asociados con la IA, pueden causar un daño mayor en un contexto de IA agentic porque los errores pueden replicarse a través de múltiples salidas y procesos.

La naturaleza autónoma de la IA agentic introduce varias categorías de riesgos únicos que las organizaciones deben abordar. El MGF identifica cinco categorías:

  • Acciones erróneas: Los agentes pueden realizar tareas incorrectas, como programar citas en la fecha equivocada, generar código defectuoso o gestionar mal el inventario, lo que lleva a consecuencias perjudiciales o costosas.
  • Acciones no autorizadas: Los agentes pueden actuar fuera de su ámbito permitido, por ejemplo, ejecutando transacciones o realizando cambios sin la aprobación humana requerida.
  • Acciones sesgadas o injustas: Las decisiones tomadas por los agentes pueden resultar en resultados discriminatorios o inequitativos, como prácticas de contratación sesgadas o selección injusta de proveedores.
  • Violaciones de datos: La información sensible, incluidos datos personales o secretos comerciales, puede ser expuesta o utilizada indebidamente si los agentes no reconocen la confidencialidad o son explotados por atacantes.
  • Disrupción de sistemas conectados: Los malfuncionamientos o compromisos pueden desestabilizar sistemas vinculados, como eliminar bases de código críticas o abrumar plataformas externas con solicitudes excesivas.

Cómo el MGF aborda los riesgos

Dimensión 1: Evaluar y limitar riesgos temprano. Las organizaciones deben evaluar si un caso de uso propuesto es apropiado antes de su implementación. La evaluación de riesgos debe considerar tanto el impacto como la probabilidad de error. Factores clave incluyen:

  • Tolerancia al error en el dominio (por ejemplo, la atención médica tiene una menor tolerancia al error que el marketing).
  • Si el agente puede acceder a datos sensibles o confidenciales.
  • La extensión de su acceso a sistemas externos y API.
  • Si el agente puede solo leer datos o también modificarlos.
  • Reversibilidad de las acciones tomadas.
  • Nivel de autonomía otorgado, ya que una mayor autonomía aumenta la imprevisibilidad.
  • Complejidad de la tarea, ya que el razonamiento de múltiples pasos aumenta la posibilidad de errores.
  • Exposición a sistemas externos, que aumenta la vulnerabilidad a ciberataques o indicaciones maliciosas.

Una vez identificado un caso de uso adecuado, los riesgos deben limitarse a través del diseño. Esto incluye restringir a los agentes a las herramientas y datos mínimos requeridos, hacer cumplir procedimientos operativos estándar para los flujos de trabajo y crear mecanismos para desactivar agentes si fallan.

Dimensión 2: Responsabilidad humana. La responsabilidad recae en última instancia en las organizaciones e individuos que supervisan la IA agentic. La rendición de cuentas debe distribuirse entre equipos:

  • Liderazgo: Los miembros de la junta y jefes de departamento definen objetivos, casos de uso permitidos y enfoques de gobernanza.
  • Equipos de producto: Manejan diseño, pruebas y educación del usuario.
  • Equipos de ciberseguridad: Protegen sistemas contra amenazas y gestionan la respuesta a incidentes.
  • Usuarios finales de los resultados: Aseguran el uso ético y el cumplimiento de las políticas organizacionales.

Externamente, la responsabilidad debe reforzarse a través de disposiciones contractuales con proveedores de sistemas, desarrolladores de modelos y vendedores de herramientas.

Para garantizar una supervisión significativa, las organizaciones deben establecer puntos de control que requieran aprobación humana antes de acciones sensibles o irreversibles. La supervisión debe auditarse regularmente, con capacitación para ayudar a los humanos a reconocer modos de falla comunes y evitar sesgos de automatización.

Dimensión 3: Controles técnicos a lo largo del ciclo de vida. Se deben integrar salvaguardias técnicas en cada etapa:

  • Desarrollo: Los agentes deben ser inducidos a aclarar instrucciones, restringidos a herramientas esenciales y diseñados con protocolos de comunicación estandarizados.
  • Pre-implementación: Los agentes deben someterse a rigurosas pruebas de precisión, cumplimiento, uso de herramientas y resiliencia en casos extremos.
  • Implementación y más allá: Desplegar agentes gradualmente, comenzando con contextos de menor riesgo y usuarios capacitados. Deben estar en su lugar la monitorización continua, el registro y los mecanismos de seguridad para detectar y responder a comportamientos inesperados.

Dimensión 4: Responsabilidad del usuario final. Las organizaciones deben empoderar a los usuarios finales para interactuar de manera responsable con la IA agentic. La transparencia es crítica, lo que significa que los usuarios deben ser informados cuando están interactuando con un agente, qué acciones puede realizar, qué datos puede acceder y cómo escalar problemas.

Para los usuarios externos, como los clientes, es esencial una comunicación clara sobre limitaciones y puntos de escalada humana; para los usuarios internos, como los empleados que integran agentes en flujos de trabajo, la capacitación debe cubrir mejores prácticas, técnicas de supervisión y errores comunes.

A medida que los agentes asumen tareas rutinarias, las organizaciones deben garantizar que los empleados continúen desarrollando y manteniendo habilidades centrales a través de la capacitación y la exposición.

Conclusión

El MGF establece parámetros claros para el uso responsable de la IA agentic, ofreciendo a las organizaciones una guía práctica para construir confianza en el despliegue de tecnologías avanzadas de IA. Aunque el marco no es legalmente vinculante, señala la dirección regulatoria y establece mejores prácticas que las empresas pueden adoptar hoy.

Las organizaciones deben comenzar revisando sus estructuras de gobernanza en función de las cuatro dimensiones del marco, abordando cualquier brecha y fortaleciendo políticas y mecanismos de supervisión. A medida que el MGF está diseñado para evolucionar, las empresas deben mantenerse comprometidas con futuras actualizaciones y desarrollos en la industria.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...