Legisladores Estatales Buscan Regular el Uso de IA en Decisiones Salariales

Los Legisladores Estatales Buscan Regular el Uso de IA por Parte de los Empleadores para Decisiones Salariales

A medida que los empleadores continúan encontrando nuevas formas de utilizar herramientas y software de inteligencia artificial (IA) para apoyar las operaciones comerciales, los legisladores estatales han tomado nota. En concreto, los legisladores estatales están examinando cada vez más el uso de IA y herramientas de decisión automatizadas por parte de los empleadores para establecer o influir en la compensación laboral, con el objetivo declarado de frenar los posibles impactos discriminatorios resultantes del uso de la fijación salarial algorítmica y aumentar la transparencia para los empleados y solicitantes respecto al uso de dicha tecnología.

Actividad Legislativa Reciente

Varios estados, incluidos California, Colorado, Georgia e Illinois, han presentado proyectos de ley en 2025 buscando establecer parámetros sobre las decisiones salariales impulsadas por IA. Los legisladores de Nueva York y Maryland continuaron con esta tendencia en enero de 2026, introduciendo proyectos de ley que contienen restricciones similares.

Si bien estas leyes propuestas no son idénticas, comparten características comunes. En primer lugar, definen “sistemas de decisión automatizados” para incluir sistemas, software o procesos que utilizan técnicas de aprendizaje automático o IA que se utilizan para asistir o reemplazar la toma de decisiones humanas. En el contexto laboral, estas definiciones abarcan herramientas y software de recursos humanos automatizados que utilizan reglas predefinidas para procesar datos a través de algoritmos y asistir en el desempeño de funciones de recursos humanos.

Además, la mayoría de estas leyes propuestas proporcionan orientación sobre las conductas que no constituirían un uso ilegal de la fijación salarial algorítmica. Estas exclusiones incluyen, por ejemplo, cuando los empleadores (1) ofrecen salarios individualizados basados en datos relacionados con los servicios realizados por los trabajadores; (2) divulgan en un lenguaje claro su uso de sistemas de decisión automatizados, incluyendo los datos considerados por los sistemas y cómo los sistemas consideran dichos datos, a empleados y solicitantes cuya compensación es influenciada o determinada por estos métodos; y (3) desarrollan e implementan procedimientos para garantizar la precisión de los datos considerados por los sistemas de decisión automatizados en la fijación de salarios.

Riesgos Legales Asociados con Decisiones Salariales Impulsadas por IA

Los legisladores que abogan por estas leyes estatales han enfatizado que el uso no regulado de IA por parte de los empleadores en decisiones salariales puede resultar en resultados compensatorios discriminatorios. De hecho, las decisiones salariales impulsadas por IA de los empleadores pueden estar cubiertas por diversas leyes laborales, incluyendo la Ley de Derechos Civiles, la Ley de Estadounidenses con Discapacidades, la Ley de Discriminación por Edad en el Empleo, la Ley de Igualdad Salarial y/o las leyes estatales y locales aplicables.

La naturaleza de los sistemas de decisión automatizados ya crea riesgos legales únicos para los empleadores, particularmente en el contexto de confiar en estos sistemas para determinar la compensación de los empleados. Un desafío clave que enfrentan los empleadores al usar herramientas impulsadas por IA en general es la falta de transparencia en cómo las herramientas llegan a sus conclusiones o recomendaciones. Mientras que los tomadores de decisiones humanos pueden explicar el razonamiento que motiva las decisiones de compensación, es difícil, y en algunos casos puede ser imposible, discernir el razonamiento subyacente a las decisiones tomadas por ciertas herramientas de IA. Esto deja a los empleadores vulnerables a desafíos legales respecto a las decisiones de compensación emitidas por herramientas o software de IA. El alcance de la responsabilidad potencial puede amplificarse si los procesos se utilizan para establecer o influir en la compensación de un gran número de empleados o solicitantes.

Conclusiones para los Empleados

Por ahora, los empleadores deben garantizar el cumplimiento de las leyes federales y estatales aplicables que se han promulgado o que están programadas para entrar en vigor en 2026. Esto incluye, como mínimo, identificar cada herramienta de IA utilizada actualmente en la toma de decisiones laborales y evaluar si esas herramientas están sujetas a regulación por alguna ley estatal o local. Los empleadores también deben establecer e implementar una política integral de IA que describa los procedimientos internos para el uso de IA, proporcione el aviso requerido a los empleados y solicitantes sobre el uso de IA, y exija supervisión humana de las recomendaciones impulsadas por IA.

De cara al futuro, los empleadores deben monitorear activamente los desarrollos en la legislación federal, estatal y local, así como en los reglamentos de agencias destinados a gobernar el uso de IA en decisiones relacionadas con la compensación de los empleados y otros términos laborales. A medida que los estados se mueven rápidamente para establecer límites para el papel de la IA en la toma de decisiones en el lugar de trabajo, los empleadores que auditen proactivamente sus prácticas relacionadas con la IA y prioricen la participación humana transparente en los procesos de toma de decisiones, incluida la compensación, estarán en una mejor posición para minimizar riesgos legales y adaptarse a los requisitos regulatorios en evolución.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...