Más allá del aviso: Descodificando la conformidad de la IA en el trabajo
En los últimos años, ha habido una explosión en el uso de la inteligencia artificial (IA) generativa en el lugar de trabajo. La IA puede ser utilizada de diversas maneras, incluyendo la automatización de tareas rutinarias, el análisis de conjuntos de datos, la creación de contenido de formación y la selección de candidatos, entre otros. Sin embargo, el uso de la IA conlleva riesgos, y los empleadores deben tomar medidas proactivas para minimizar estos riesgos en sus organizaciones.
Regulación de la IA en el lugar de trabajo
Canadá se encuentra en las primeras fases de regulación del uso de la IA. Anteriormente, el Gobierno de Canadá introdujo el Proyecto de Ley C-27, que incluía legislación titulada «Ley de Inteligencia Artificial y Datos». Esta ley fue redactada para garantizar que el desarrollo de sistemas de IA se realice de manera segura y responsable, principalmente mediante un enfoque basado en riesgos para abordar los posibles daños asociados con el uso de la IA. Sin embargo, el Proyecto de Ley C-27 no avanzó y quedó sin efecto.
La mayoría de las provincias y territorios de Canadá no tienen legislación que regule el uso de la IA, con algunas excepciones. En Ontario, a partir del 1 de enero de 2026, se realizaron cambios en la Ley de Normas Laborales que introducen nuevas reglas sobre las ofertas de trabajo publicadas. Los empleadores de Ontario con más de 25 empleados ahora deben revelar en la oferta si utilizan IA durante el proceso de contratación para evaluar o seleccionar candidatos.
En Quebec, una ley sobre la protección de la información personal en el sector privado estipula que, si una persona se basa exclusivamente en un procesamiento automatizado de información personal para tomar una decisión, debe informar a la persona afectada a más tardar cuando le comunique la decisión. También debe informar a la persona cuya información está sujeta al procesamiento, cuando esta lo solicite.
El 3 de diciembre de 2025, los Estándares de Accesibilidad de Canadá anunciaron la publicación del primer Estándar Nacional de Canadá enfocado específicamente en la IA accesible, titulado CAN-ASC-6.2 – Sistemas de Inteligencia Artificial Accesibles y Equitativos. Este estándar se centra en garantizar que el uso de la IA sea equitativo y accesible para personas con discapacidades. Actualmente, la implementación del estándar es voluntaria para los empleadores.
Lo que los empleadores deben saber
Aunque parece que la legislación que regula la tecnología de IA es un nuevo ámbito del derecho con poca regulación, existen marcos legales existentes que los empleadores deben tener en cuenta, incluyendo obligaciones de derechos humanos y privacidad.
Consideraciones sobre derechos humanos
Muchas formas de IA reciclan salidas basadas en datos preexistentes en sus sistemas. Por lo tanto, algunos programas pueden producir salidas que son inexactas o discriminatorias. Esto puede dar lugar a responsabilidad, y los lugares de trabajo pueden ser considerados responsables. Un ejemplo de esto sería en el contexto de la contratación, donde un programa de selección podría inadvertidamente excluir a un grupo de solicitantes debido a un motivo protegido bajo la legislación de derechos humanos. Esto se consideraría una práctica discriminatoria.
Consideraciones de privacidad
También existen preocupaciones sobre propiedad intelectual y privacidad en relación con el uso de la IA en el lugar de trabajo. Al ingresar información en programas de IA, los empleadores deben tener cuidado de no perder su propiedad intelectual, ya que los términos y condiciones del programa pueden intentar otorgar derechos al propietario de la IA. Este es un problema legal en curso.
Los empleadores también deben ser cautelosos al ingresar información personal o sensible de los empleados en un sistema de IA, ya que la información ingresada puede no permanecer privada, lo que presenta riesgos de violaciones de privacidad y seguridad.
Cómo los empleadores pueden mitigar riesgos
Los empleadores deben tomar medidas para garantizar que los empleados sean conscientes de los riesgos del uso indebido de la IA y tratar de mitigar cualquier uso inapropiado de la IA en el lugar de trabajo.
Una política de uso de IA es una medida proactiva para minimizar riesgos y comunicar a los empleados las expectativas de la organización en relación con el uso de la IA. Las disposiciones importantes a incluir en una política de IA son:
- La obligación de que los empleados revelen y reciban aprobación previa para el uso de IA en el lugar de trabajo,
- Un esbozo claro de lo que la organización considera un uso aceptable de la IA, y
- Consecuencias por uso indebido de la IA.
Si está interesado en aprender más sobre la IA y mitigar riesgos dentro de su organización, hay una amplia experiencia disponible para ayudar a diversas organizaciones en esta área. Se puede proporcionar apoyo para cumplir con los marcos legales y establecer políticas de IA para su organización.
Nota: Este artículo es de carácter general y no es exhaustivo en cuanto a todos los posibles derechos o recursos legales. Además, las leyes pueden cambiar con el tiempo y deben ser interpretadas solo en el contexto de circunstancias particulares, de modo que este material no está destinado a ser confiado o tomado como asesoría legal. Los lectores deben consultar a un profesional legal para obtener asesoría específica en cualquier situación particular.