Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

AI Está Tomando el Control de los Lugares de Trabajo—Aquí Están los Riesgos que la Mayoría de las Empresas Están Ignorando

En 2024, el proveedor de software de contabilidad Sage pausó su asistente de IA generativa después de que los usuarios informaran que había filtrado datos financieros sensibles entre cuentas. Aunque estaba destinado a optimizar las operaciones de pequeñas empresas, la herramienta destacó cuán frágil puede volverse el cumplimiento cuando falla la supervisión.

Todos están apresurándose a adoptar IA, pero las organizaciones deberían detenerse primero para preguntar cómo gestionarla de manera segura.

¿Qué sucede cuando la IA se convierte en tu próximo empleado?

El informe de Microsoft sobre el futuro del trabajo destaca un cambio fundamental: los agentes de IA ya no son solo herramientas, son colegas digitales. El informe predice que los agentes de IA pronto serán «gestionados» como empleados, realizando tareas de forma autónoma, aunque aún requiriendo supervisión humana.

Esto cambia todo. Si un agente de IA comete un error, ¿quién es el responsable? Reena Richtermeyer, socia de CM Law, enfatiza que la organización debe establecer principios de cumplimiento y gobernanza.

Gobernanza por conjeturas

La IA puede comenzar siendo útil, pero puede convertirse en un pasivo si nadie presta atención. Es crucial que un humano gestione la capacitación y la implementación de la IA.

Carolyn Troyan, CEO de Leadership 360, menciona que hay una responsabilidad en la capacitación de los modelos y que la supervisión comienza mucho antes de su lanzamiento.

Sin embargo, muchas organizaciones aún no están preparadas. Según una encuesta de KPMG de 2023, solo el 6% de las organizaciones informan tener un equipo dedicado para evaluar riesgos y implementar estrategias de mitigación.

Cuando la IA falla en público

Algunas empresas están aprendiendo estas lecciones de la manera difícil. Klarna, una empresa fintech sueca, hizo titulares globales en 2024 cuando reemplazó a 700 representantes de servicio al cliente con un asistente de IA. Aunque parecía una forma inteligente de aumentar la productividad, los clientes pronto expresaron su frustración, lo que llevó a Klarna a recontratar a agentes humanos.

Katrina Young, consultora de transformación digital, señala que no hay reglas ni guías al respecto. La empresa necesita involucrar a los interesados para asegurarse de que las políticas sean adecuadas.

El auge de la IA oculta

El informe de Microsoft también señala una tendencia que dificulta aún más la supervisión: casi el 80% de los usuarios de IA están introduciendo sus herramientas en el lugar de trabajo, un fenómeno denominado Bring Your Own AI. Esto significa que la adopción de IA no siempre ocurre a nivel organizacional, sino que se produce de manera sigilosa, departamento por departamento.

Liderazgo redefinido

A medida que la IA redefine cómo trabajamos, muchos líderes deben aprender a gestionar la tecnología que no comprenden completamente. Decidir qué trabajo puede ser mejor realizado por un agente versus una persona es una de las habilidades más importantes que deben aprender.

Troyan advierte que las empresas deben pensar ahora en cómo la automatización afectará el desarrollo de la fuerza laboral.

La responsabilidad no es opcional

En última instancia, no importa cuán avanzadas sean las herramientas, los sistemas de IA aún necesitan supervisión humana. Young afirma que «la IA nunca podrá reemplazarnos». La rendición de cuentas debe ser parte del sistema desde el principio.

Las empresas que no planifican el cumplimiento ahora pueden encontrarse intentando explicar errores a reguladores, clientes, inversores y empleados más tarde, pero para entonces, puede ser demasiado tarde.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...