Por qué la falta de gobernanza perjudicará a las empresas que utilizan IA agente
Las empresas están actuando rápidamente para adoptar la IA agente—sistemas de inteligencia artificial que operan sin guía humana—pero han sido mucho más lentas en establecer una gobernanza para supervisarlos, según una nueva encuesta. Esta descoordinación es una fuente importante de riesgo en la adopción de IA, y también representa una oportunidad comercial.
La situación actual
Un estudio reciente revela que el 41% de las organizaciones están utilizando IA agente en sus operaciones diarias, integrándolas en flujos de trabajo regulares. Sin embargo, solo el 27% de las organizaciones afirma que sus marcos de gobernanza son lo suficientemente maduros para monitorear y gestionar estos sistemas de manera efectiva.
En este contexto, la gobernanza no se trata de regulación o reglas innecesarias. Significa tener políticas y prácticas que permitan a las personas influir claramente en cómo funcionan los sistemas autónomos, incluyendo quién es responsable de las decisiones, cómo se verifica el comportamiento y cuándo deben intervenir los humanos.
Los riesgos de la falta de gobernanza
Este desajuste puede convertirse en un problema cuando los sistemas autónomos actúan en situaciones reales antes de que alguien pueda intervenir. Por ejemplo, durante un reciente apagón, los robotaxis autónomos se quedaron atascados en intersecciones, bloqueando vehículos de emergencia y confundiendo a otros conductores. Esta situación mostró que, incluso cuando los sistemas autónomos se comportan «como se diseñaron», las condiciones inesperadas pueden llevar a resultados indeseables.
Esto plantea una gran pregunta: ¿quién es responsable cuando algo sale mal con la IA, y quién puede intervenir?
La importancia de la gobernanza
Cuando los sistemas de IA actúan por su cuenta, la responsabilidad ya no recae donde las organizaciones esperarían. Las decisiones todavía ocurren, pero la propiedad es más difícil de rastrear. Por ejemplo, en los servicios financieros, los sistemas de detección de fraudes actúan en tiempo real para bloquear actividades sospechosas antes de que un humano revise el caso. Los clientes a menudo solo se enteran cuando su tarjeta es rechazada.
¿Qué sucede si tu tarjeta es rechazada erróneamente por un sistema de IA? En esta situación, el problema no es la tecnología en sí; está funcionando como se diseñó, pero se trata de la responsabilidad. La investigación sobre gobernanza humana-IA muestra que los problemas ocurren cuando las organizaciones no definen claramente cómo deben trabajar juntos las personas y los sistemas autónomos. Esta falta de claridad dificulta saber quién es responsable y cuándo deben intervenir.
El papel de la intervención humana
En muchas organizaciones, los humanos están técnicamente «dentro del circuito», pero solo después de que los sistemas autónomos ya han actuado. Las personas tienden a involucrarse una vez que un problema se hace visible: cuando un precio parece incorrecto, una transacción es marcada o un cliente se queja. Para ese momento, el sistema ya ha tomado una decisión, y la revisión humana se convierte en correctiva en lugar de supervisoria.
La intervención tardía puede limitar las consecuencias de decisiones individuales, pero rara vez aclara quién es responsable. Las consecuencias pueden corregirse, pero la responsabilidad permanece confusa.
Cómo la gobernanza afecta el rendimiento
La IA agente a menudo trae resultados rápidos, especialmente cuando las tareas se automatizan por primera vez. Sin embargo, a medida que los sistemas autónomos crecen, las organizaciones suelen añadir verificaciones manuales y pasos de aprobación para gestionar el riesgo. Con el tiempo, lo que era simple se vuelve más complicado. La toma de decisiones se ralentiza, aumentan los arreglos alternativos y los beneficios de la automatización se desvanecen. Esto no sucede porque la tecnología deje de funcionar, sino porque las personas nunca confían plenamente en los sistemas autónomos.
Esta desaceleración no tiene que ocurrir. Las organizaciones con una gobernanza más fuerte son mucho más propensas a convertir esas ganancias iniciales en resultados a largo plazo, como una mayor eficiencia y crecimiento de ingresos. La diferencia clave no es la ambición o las habilidades técnicas, sino estar preparados.
Una buena gobernanza no limita la autonomía. La hace viable al aclarar quién posee las decisiones, cómo se monitorea el funcionamiento de los sistemas y cuándo deben intervenir las personas. La orientación internacional enfatiza este punto: la responsabilidad y la supervisión humana deben diseñarse en los sistemas de IA desde el principio, no añadirse posteriormente.
Conclusión
La próxima ventaja competitiva en IA no provendrá de una adopción más rápida, sino de una gobernanza más inteligente. A medida que los sistemas autónomos asumen más responsabilidades, el éxito pertenecerá a las organizaciones que definan claramente la propiedad, la supervisión y la intervención desde el inicio. En la era de la IA agente, la confianza se acumulará en las organizaciones que mejor gobiernen, no simplemente en aquellas que adopten primero.