El futuro de la gobernanza en la era de la IA agentiva

Cómo la IA agentiva podría destruir las redes sociales: la necesidad de una gobernanza proactiva

He visto esto antes. En 2000, construí un chatbot que podía comunicarse con otros bots a través de redes. Lo llamamos «botnet» cuando numerosos bots realizaban acciones coordinadas en una o más redes. Imagina un mensaje en una sala de chat que desencadena una respuesta en otra sala de chat o incluso en un servidor diferente, mucho antes de que existieran las Interfaces de Programación de Aplicaciones (APIs) o herramientas de automatización de flujos de trabajo como Hootsuite o Zapier. Establecías una regla sobre un comando, un desencadenante de evento, una respuesta automática si llegaba un tipo de mensaje determinado, y el sistema actuaba.

Veinticinco años después, la IA agentiva se basa en el mismo principio, solo que a escala de nube. Los sistemas ahora monitorean eventos, toman decisiones y realizan acciones con poca supervisión humana. Si no gobernamos adecuadamente esa capa, corremos el riesgo de convertir Internet público en un circuito cerrado de máquinas hablando con máquinas.

De texto a acción

Donde la IA generativa escribe, la IA agentiva ejecuta. Puede redactar, publicar, responder, comprar, programar y optimizar sin esperar aprobación. Una encuesta de McKinsey de 2025 encontró que la mitad de las empresas ya están pilotando flujos de trabajo autónomos. Pero la gobernanza está rezagada respecto a la adopción. Un estudio global de KPMG sobre la confianza en la IA encontró que casi tres cuartas partes de las personas no están seguras de qué contenido en línea es genuino. La ilusión de compromiso es una amenaza para la comunicación real. Cuando las organizaciones pueden beneficiarse utilizando agentes en lugar de humanos, estamos avanzando hacia una economía que devalúa la autenticidad y la contribución humana.

Estamos navegando hacia una situación absurda que muy pocas organizaciones parecen estar considerando. Un agente de IA puede generar una publicación en redes sociales. Otros agentes de IA pueden amplificarla. Más agentes pueden comentar sobre ella, reaccionar a ella y optimizarla. Una llamada a la acción es clicada, se reserva una reunión, y la persona que se une a esa llamada es saludada por un agente de ventas de IA. En algunos casos, el sistema que reserva la llamada también puede ser una IA.

Desde fuera, todo parece positivo. El compromiso está en aumento. La actividad está en aumento. La productividad parece ser más alta. Parece que se está creando valor. Pero si lo ralentizas, estos sistemas están en su mayoría hablando entre sí. Las máquinas están generando señales para otras máquinas, y las plataformas aún cuentan eso como éxito.

El nuevo vacío de confianza

Las redes sociales ya estaban saturadas de ruido generado por personas. La IA agentiva magnifica eso a escala de nube, con una velocidad sin precedentes. Las marcas y los influencers están automatizando reacciones y comentarios para inclinar los algoritmos a su favor. Esos beneficios se erosionan a medida que la confianza se deteriora. Cuando los usuarios no pueden distinguir si una cuenta, artículo o comentario proviene de una persona, aumenta su escepticismo existente y genera un nuevo escepticismo en aquellos que normalmente son receptivos a la comunicación de otros.

Los problemas persistentes de fiabilidad en la IA generativa continúan afectando la confianza. PwC destaca un creciente vacío de confianza a medida que las organizaciones adoptan la IA más rápido de lo que pueden gobernarla con la transparencia, responsabilidad y control adecuados.

La gobernanza como código, no solo como política

Los líderes no pueden resolver este problema con declaraciones grandiosas, ni una política de privacidad o seguridad de la información puede hacer algo contra los peligros de la IA no gobernada. La gobernanza debe vivir dentro de la arquitectura administrativa, operativa y técnica de las soluciones que utilizan IA. Las organizaciones que tienen éxito son las que escriben la intención dentro del sistema mismo. Eso significa controles auditables, comandos versionados, aprobación humana antes de que se realicen acciones externas y registros de actividad que puedan sostenerse en un tribunal.

La Ley de IA de la UE, que está aumentando gradualmente su fuerza, requerirá explícitamente documentación y trazabilidad para los sistemas de IA de alto riesgo. La orden ejecutiva del gobierno de EE.UU. de 2024 sobre IA responsable habría hecho lo mismo para las agencias federales, pero la nueva administración rescindió esta orden. El modelo liderado por reguladores del Reino Unido y la nueva Ley de Acceso y Uso de Datos están impulsando más innovación mientras protegen a los sujetos de datos según lo enfatizado en el GDPR. La conformidad es la base a seguir, y esto limitará la IA agentiva no gestionada, al menos para aquellos que se mantengan dentro de la legalidad.

La responsabilidad de la junta

Mientras muchos emprendedores miran cómo la IA agentiva ayuda con marketing, ventas o TI, es un tema que debe ser tratado a nivel de junta, como la ciberseguridad o la conformidad. Las juntas bien gobernadas definen lo que es permisible, establecen protocolos de escalación y exigen evidencia de control. Los profesionales de la junta asesora con experiencia en IA pueden agregar valor al identificar riesgos específicos de la IA.

Las organizaciones que se centran en las mejores prácticas de la junta asesora para apoyar a las juntas de gobernanza generarán claridad sobre lo que la tecnología puede hacer, lo que no debe hacer y quién responde por ello. Sin una gobernanza clara, cualquier ganancia a corto plazo de la IA agentiva se produce a costa de la confianza y el control reputacional.

Seguridad y disciplina de entrega

La IA agentiva introduce cada riesgo que los profesionales de seguridad a nivel ejecutivo están entrenados para gestionar, pero también exige disciplina operativa a nivel ejecutivo. Los proyectos necesitan propiedad definida, control de cambios y cierre. Cada agente debe tener un archivo de construcción, un registro de prueba y un plan de reversión. Los registros deben ser inmutables. Los permisos deben expirar. Probar la debida diligencia cuando los reguladores pregunten cómo se comportan sus sistemas de IA será la norma.

¿Qué sigue?

La regulación está alcanzando, aunque de manera desigual. La aplicación escalonada de la UE ya ha comenzado en 2025, con más aplicación prevista para 2026. La Oficina de Administración y Presupuesto de EE.UU. ahora requiere que los organismos federales informen sobre todos los casos de uso de IA. El Instituto de Seguridad de IA del Reino Unido está ampliando su trabajo de evaluación al sector privado. Y la nueva Ley de IA de Colorado, que entra en vigor a principios de 2026, establece un precedente para evaluaciones de impacto obligatorias en la automatización orientada al consumidor. La señal en general es clara: los días de «implementar ahora, gobernar después» están terminando.

Las empresas que se adapten temprano serán aquellas que traten la IA agentiva como una disciplina operativa. Eso significa aplicar rigor en la gestión de proyectos, arquitectura de seguridad y revisión legal antes de la implementación. Significa documentar cada acción automatizada que toque al público. Y significa comprender que la automatización no es una solución rápida, requiere cuidado y conformidad.

La IA debería hacer que las personas sean más rápidas, no invisibles. El objetivo no es eliminar el juicio humano; es amplificarlo. Los sistemas agentivos son inevitables. La pregunta es si servirán a la intención humana o la ahogarán. La gobernanza que vive en el código, en los contratos y en la cultura es lo que determina si los sistemas agentivos extienden la capacidad humana o la reemplazan.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...