AI Está Tomando el Control de los Lugares de Trabajo—Aquí Están los Riesgos que la Mayoría de las Empresas Están Ignorando
En 2024, el proveedor de software de contabilidad Sage pausó su asistente de IA generativa después de que los usuarios informaran que había filtrado datos financieros sensibles entre cuentas. Aunque estaba destinado a optimizar las operaciones de pequeñas empresas, la herramienta destacó cuán frágil puede volverse el cumplimiento cuando falla la supervisión.
Todos están apresurándose a adoptar IA, pero las organizaciones deberían detenerse primero para preguntar cómo gestionarla de manera segura.
¿Qué sucede cuando la IA se convierte en tu próximo empleado?
El informe de Microsoft sobre el futuro del trabajo destaca un cambio fundamental: los agentes de IA ya no son solo herramientas, son colegas digitales. El informe predice que los agentes de IA pronto serán «gestionados» como empleados, realizando tareas de forma autónoma, aunque aún requiriendo supervisión humana.
Esto cambia todo. Si un agente de IA comete un error, ¿quién es el responsable? Reena Richtermeyer, socia de CM Law, enfatiza que la organización debe establecer principios de cumplimiento y gobernanza.
Gobernanza por conjeturas
La IA puede comenzar siendo útil, pero puede convertirse en un pasivo si nadie presta atención. Es crucial que un humano gestione la capacitación y la implementación de la IA.
Carolyn Troyan, CEO de Leadership 360, menciona que hay una responsabilidad en la capacitación de los modelos y que la supervisión comienza mucho antes de su lanzamiento.
Sin embargo, muchas organizaciones aún no están preparadas. Según una encuesta de KPMG de 2023, solo el 6% de las organizaciones informan tener un equipo dedicado para evaluar riesgos y implementar estrategias de mitigación.
Cuando la IA falla en público
Algunas empresas están aprendiendo estas lecciones de la manera difícil. Klarna, una empresa fintech sueca, hizo titulares globales en 2024 cuando reemplazó a 700 representantes de servicio al cliente con un asistente de IA. Aunque parecía una forma inteligente de aumentar la productividad, los clientes pronto expresaron su frustración, lo que llevó a Klarna a recontratar a agentes humanos.
Katrina Young, consultora de transformación digital, señala que no hay reglas ni guías al respecto. La empresa necesita involucrar a los interesados para asegurarse de que las políticas sean adecuadas.
El auge de la IA oculta
El informe de Microsoft también señala una tendencia que dificulta aún más la supervisión: casi el 80% de los usuarios de IA están introduciendo sus herramientas en el lugar de trabajo, un fenómeno denominado Bring Your Own AI. Esto significa que la adopción de IA no siempre ocurre a nivel organizacional, sino que se produce de manera sigilosa, departamento por departamento.
Liderazgo redefinido
A medida que la IA redefine cómo trabajamos, muchos líderes deben aprender a gestionar la tecnología que no comprenden completamente. Decidir qué trabajo puede ser mejor realizado por un agente versus una persona es una de las habilidades más importantes que deben aprender.
Troyan advierte que las empresas deben pensar ahora en cómo la automatización afectará el desarrollo de la fuerza laboral.
La responsabilidad no es opcional
En última instancia, no importa cuán avanzadas sean las herramientas, los sistemas de IA aún necesitan supervisión humana. Young afirma que «la IA nunca podrá reemplazarnos». La rendición de cuentas debe ser parte del sistema desde el principio.
Las empresas que no planifican el cumplimiento ahora pueden encontrarse intentando explicar errores a reguladores, clientes, inversores y empleados más tarde, pero para entonces, puede ser demasiado tarde.