Cumplimiento y Regulación de la IA Agentica: Lo que Debes Saber
La adopción generalizada de la inteligencia artificial por parte de las organizaciones ha traído innumerables beneficios, pero también ha conllevado desventajas.
De hecho, el 95% de los ejecutivos afirmaron que sus organizaciones experimentaron consecuencias negativas en los últimos dos años como resultado del uso de la IA empresarial, según un informe de agosto de 2025 de Infosys, titulado «IA Empresarial Responsable en la Era Agentica». Una pérdida financiera directa fue la consecuencia más común, reportada en el 77% de los casos.
A pesar de estas cifras alarmantes, la situación podría empeorar a medida que las organizaciones comiencen a implementar IA agentica. Infosys encontró que el 86% de los ejecutivos que estaban al tanto de la IA agentica creían que la tecnología plantea riesgos adicionales y desafíos de cumplimiento para sus negocios.
¿Qué es la IA Agentica?
El término IA agentica, o agentes de IA, se refiere a sistemas de IA que pueden tomar decisiones de forma independiente y adaptar su comportamiento de manera autónoma para lograr un objetivo específico. A diferencia de las herramientas de automatización tradicionales que siguen un conjunto rígido de instrucciones, los sistemas de IA agentica utilizan patrones y relaciones aprendidas para razonar y ajustar sus acciones en tiempo real. La capacidad de actuar de forma independiente es lo que distingue a los agentes de IA de la automatización básica.
Por qué la IA Agentica necesita nuevas estrategias de cumplimiento
La capacidad de la IA agentica para tomar decisiones y ejecutar acciones por sí sola introduce un riesgo mayor en la organización, lo que lleva a expertos en IA y oficiales de cumplimiento a aconsejar a los ejecutivos que presten más atención a la incorporación de controles necesarios en los sistemas desde el principio.
Como explicó un experto, «un agente de IA agentica está procesando datos a través de múltiples capas, y hay cumplimiento, gobernanza y riesgos en todas esas capas». Cuanto más complejas e importantes sean las actividades realizadas por los agentes, mayor será el riesgo.
Además, el cumplimiento, en cualquier circunstancia, es difícil de lograr porque es un objetivo cambiante. «Es algo que está en constante movimiento, y aun así debes construir una estructura de cumplimiento para algo que no permanece igual», destacó el experto.
Riesgos asociados a la IA Agentica
Uno de los principales riesgos que presenta la IA agentica es el acceso y la exposición de datos sensibles. Si un agente de IA está programado para recopilar información, podría acceder a áreas confidenciales del sistema sin las salvaguardias adecuadas, lo que podría llevar a una exposición no intencionada. Si el agente es comprometido, también podría ser manipulado para exponer esos puntos débiles.
Otros riesgos incluyen alucinaciones de IA, infracción de material protegido por derechos de autor, el uso de información sesgada o incorrecta para tomar decisiones y acciones no autorizadas.
Cómo abordar los nuevos riesgos e implementar controles para la IA Agentica
¿Cómo pueden las empresas abordar los riesgos inherentes al uso de la IA agentica? Una de las estrategias es:
- Comprender y evaluar el caso de uso: Trabajar con un equipo multifuncional para comenzar con la comprensión y evaluación del caso de uso donde se implementará la IA. Listar los riesgos específicos asociados.
- Identificar partes interesadas clave: Para garantizar la responsabilidad, identificar tanto al desarrollador de tecnología responsable del sistema de IA como al propietario del negocio a cargo del caso de uso.
- Considerar el propósito del caso de uso: Aclarar cuál es el objetivo del caso de uso y cómo se está utilizando la IA para lograr ese objetivo.
- Identificar los datos involucrados: Identificar los datos a los que accederá el sistema de IA durante su operación y evaluar la sensibilidad y la protección necesarias para mitigar riesgos de seguridad.
Los controles incluyen controles técnicos, así como pruebas continuas, supervisión humana y revisiones.
Marcos de cumplimiento emergentes para la IA Agentica
Asegurar que los agentes de IA cumplan con reglas, regulaciones y estándares aplicables está bajo la idea de IA responsable. Esta es una forma de desarrollar y desplegar IA para garantizar que sea responsable, ética, justa, segura, transparente y confiable.
Existen varios marcos que las organizaciones pueden utilizar para ayudar a garantizar que desarrollen IA responsable y, como parte de eso, agentes de IA cumplidores:
- Reglamento de IA de la Unión Europea: Este reglamento promueve una IA segura y transparente mediante la categorización de niveles de riesgo, guiando el desarrollo responsable y asegurando el cumplimiento a través de reglas claras y mecanismos de responsabilidad y aplicación.
- Código de Conducta del G7 para la IA: Este conjunto de directrices voluntarias promueve el desarrollo y despliegue seguro y confiable de sistemas avanzados de IA y aconseja a las organizaciones identificar, evaluar y mitigar riesgos a lo largo del ciclo de vida de la IA.
- ISO/IEC 42001: Este conjunto de directrices voluntarias cubre el desarrollo y uso de IA responsable asegurando responsabilidad, transparencia y gestión de riesgos.
- Marco de Gestión de Riesgos de IA de NIST: Este marco, destinado a uso voluntario, ayuda a las organizaciones a diseñar, desarrollar y desplegar IA responsable abordando riesgos a través de esas actividades.
Tendencias regulatorias en la IA Agentica
A pesar de que las regulaciones siguen evolucionando, los expertos afirman que ninguna aborda específicamente la IA agentica. La tendencia actual es utilizar el marco del Reglamento de la UE como base, notando que la mayoría de los países están utilizando este marco con solo ligeras variaciones.
Los legisladores en EE. UU., tanto a nivel federal como estatal, están considerando regulaciones pero aún no han proporcionado dirección firme a las organizaciones.
Cómo las empresas pueden prepararse para el cumplimiento de la IA Agentica hoy: 7 pasos
Aunque el entorno regulatorio está en evolución, los expertos en cumplimiento sugieren que las organizaciones pueden seguir los siguientes pasos para asegurar que el desarrollo y despliegue de agentes de IA cumplan con las leyes y estándares:
- Alinear los programas de cumplimiento con la estrategia y operaciones comerciales.
- Identificar las acciones que ocurren en todas las capas y en todos los puntos del flujo de trabajo.
- Auditar a los agentes de IA para verificar que están cumpliendo con las regulaciones.
- Capacitar a los empleados sobre IA responsable.
- No depender demasiado de los sistemas de IA basados en agentes demasiado pronto.
- No hacer suposiciones sobre el comportamiento del sistema.
- Desarrollar recursos continuos adecuados para garantizar el cumplimiento y la gobernanza en el desarrollo y despliegue de IA.
La IA agentica representa un cambio significativo en la forma en que las empresas deben abordar el cumplimiento, y es crucial que se implementen estrategias adecuadas para mitigar los riesgos asociados con esta tecnología en evolución.