Cumplimiento y regulación de la IA agentiva: Claves esenciales

Cumplimiento y Regulación de la IA Agentica: Lo que Debes Saber

La adopción generalizada de la inteligencia artificial por parte de las organizaciones ha traído innumerables beneficios, pero también ha conllevado desventajas.

De hecho, el 95% de los ejecutivos afirmaron que sus organizaciones experimentaron consecuencias negativas en los últimos dos años como resultado del uso de la IA empresarial, según un informe de agosto de 2025 de Infosys, titulado «IA Empresarial Responsable en la Era Agentica». Una pérdida financiera directa fue la consecuencia más común, reportada en el 77% de los casos.

A pesar de estas cifras alarmantes, la situación podría empeorar a medida que las organizaciones comiencen a implementar IA agentica. Infosys encontró que el 86% de los ejecutivos que estaban al tanto de la IA agentica creían que la tecnología plantea riesgos adicionales y desafíos de cumplimiento para sus negocios.

¿Qué es la IA Agentica?

El término IA agentica, o agentes de IA, se refiere a sistemas de IA que pueden tomar decisiones de forma independiente y adaptar su comportamiento de manera autónoma para lograr un objetivo específico. A diferencia de las herramientas de automatización tradicionales que siguen un conjunto rígido de instrucciones, los sistemas de IA agentica utilizan patrones y relaciones aprendidas para razonar y ajustar sus acciones en tiempo real. La capacidad de actuar de forma independiente es lo que distingue a los agentes de IA de la automatización básica.

Por qué la IA Agentica necesita nuevas estrategias de cumplimiento

La capacidad de la IA agentica para tomar decisiones y ejecutar acciones por sí sola introduce un riesgo mayor en la organización, lo que lleva a expertos en IA y oficiales de cumplimiento a aconsejar a los ejecutivos que presten más atención a la incorporación de controles necesarios en los sistemas desde el principio.

Como explicó un experto, «un agente de IA agentica está procesando datos a través de múltiples capas, y hay cumplimiento, gobernanza y riesgos en todas esas capas». Cuanto más complejas e importantes sean las actividades realizadas por los agentes, mayor será el riesgo.

Además, el cumplimiento, en cualquier circunstancia, es difícil de lograr porque es un objetivo cambiante. «Es algo que está en constante movimiento, y aun así debes construir una estructura de cumplimiento para algo que no permanece igual», destacó el experto.

Riesgos asociados a la IA Agentica

Uno de los principales riesgos que presenta la IA agentica es el acceso y la exposición de datos sensibles. Si un agente de IA está programado para recopilar información, podría acceder a áreas confidenciales del sistema sin las salvaguardias adecuadas, lo que podría llevar a una exposición no intencionada. Si el agente es comprometido, también podría ser manipulado para exponer esos puntos débiles.

Otros riesgos incluyen alucinaciones de IA, infracción de material protegido por derechos de autor, el uso de información sesgada o incorrecta para tomar decisiones y acciones no autorizadas.

Cómo abordar los nuevos riesgos e implementar controles para la IA Agentica

¿Cómo pueden las empresas abordar los riesgos inherentes al uso de la IA agentica? Una de las estrategias es:

  • Comprender y evaluar el caso de uso: Trabajar con un equipo multifuncional para comenzar con la comprensión y evaluación del caso de uso donde se implementará la IA. Listar los riesgos específicos asociados.
  • Identificar partes interesadas clave: Para garantizar la responsabilidad, identificar tanto al desarrollador de tecnología responsable del sistema de IA como al propietario del negocio a cargo del caso de uso.
  • Considerar el propósito del caso de uso: Aclarar cuál es el objetivo del caso de uso y cómo se está utilizando la IA para lograr ese objetivo.
  • Identificar los datos involucrados: Identificar los datos a los que accederá el sistema de IA durante su operación y evaluar la sensibilidad y la protección necesarias para mitigar riesgos de seguridad.

Los controles incluyen controles técnicos, así como pruebas continuas, supervisión humana y revisiones.

Marcos de cumplimiento emergentes para la IA Agentica

Asegurar que los agentes de IA cumplan con reglas, regulaciones y estándares aplicables está bajo la idea de IA responsable. Esta es una forma de desarrollar y desplegar IA para garantizar que sea responsable, ética, justa, segura, transparente y confiable.

Existen varios marcos que las organizaciones pueden utilizar para ayudar a garantizar que desarrollen IA responsable y, como parte de eso, agentes de IA cumplidores:

  • Reglamento de IA de la Unión Europea: Este reglamento promueve una IA segura y transparente mediante la categorización de niveles de riesgo, guiando el desarrollo responsable y asegurando el cumplimiento a través de reglas claras y mecanismos de responsabilidad y aplicación.
  • Código de Conducta del G7 para la IA: Este conjunto de directrices voluntarias promueve el desarrollo y despliegue seguro y confiable de sistemas avanzados de IA y aconseja a las organizaciones identificar, evaluar y mitigar riesgos a lo largo del ciclo de vida de la IA.
  • ISO/IEC 42001: Este conjunto de directrices voluntarias cubre el desarrollo y uso de IA responsable asegurando responsabilidad, transparencia y gestión de riesgos.
  • Marco de Gestión de Riesgos de IA de NIST: Este marco, destinado a uso voluntario, ayuda a las organizaciones a diseñar, desarrollar y desplegar IA responsable abordando riesgos a través de esas actividades.

Tendencias regulatorias en la IA Agentica

A pesar de que las regulaciones siguen evolucionando, los expertos afirman que ninguna aborda específicamente la IA agentica. La tendencia actual es utilizar el marco del Reglamento de la UE como base, notando que la mayoría de los países están utilizando este marco con solo ligeras variaciones.

Los legisladores en EE. UU., tanto a nivel federal como estatal, están considerando regulaciones pero aún no han proporcionado dirección firme a las organizaciones.

Cómo las empresas pueden prepararse para el cumplimiento de la IA Agentica hoy: 7 pasos

Aunque el entorno regulatorio está en evolución, los expertos en cumplimiento sugieren que las organizaciones pueden seguir los siguientes pasos para asegurar que el desarrollo y despliegue de agentes de IA cumplan con las leyes y estándares:

  1. Alinear los programas de cumplimiento con la estrategia y operaciones comerciales.
  2. Identificar las acciones que ocurren en todas las capas y en todos los puntos del flujo de trabajo.
  3. Auditar a los agentes de IA para verificar que están cumpliendo con las regulaciones.
  4. Capacitar a los empleados sobre IA responsable.
  5. No depender demasiado de los sistemas de IA basados en agentes demasiado pronto.
  6. No hacer suposiciones sobre el comportamiento del sistema.
  7. Desarrollar recursos continuos adecuados para garantizar el cumplimiento y la gobernanza en el desarrollo y despliegue de IA.

La IA agentica representa un cambio significativo en la forma en que las empresas deben abordar el cumplimiento, y es crucial que se implementen estrategias adecuadas para mitigar los riesgos asociados con esta tecnología en evolución.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...