Impacto de las Nuevas Normativas de Contratación con IA en California

Las nuevas normas de contratación de IA en California ya están en vigor — y nuevas demandas amplían el riesgo para los empleados

La inteligencia artificial y los sistemas de decisión automatizados se han convertido en características comunes en el reclutamiento y la contratación moderna. Los reguladores y tribunales de California han centrado cada vez más su atención en cómo los empleadores utilizan herramientas de IA en las decisiones laborales y los riesgos legales que esto conlleva.

Regulaciones de ADS de California ahora en vigor

Las regulaciones de decisión automatizada bajo la Ley de Empleo Justo y Vivienda son ahora efectivas. Estas regulaciones aclaran que el uso de herramientas de decisión automatizada, incluidas las impulsadas por IA, en reclutamiento, contratación, promoción, disciplina y otras decisiones laborales, está sujeto a las leyes de no discriminación de California. Las regulaciones no prohíben el uso de IA, pero refuerzan varios principios clave que los empleadores deben incorporar en sus programas de cumplimiento.

Los empleadores siguen siendo responsables de los resultados discriminatorios derivados de decisiones asistidas por IA, incluso cuando las herramientas son desarrolladas o administradas por terceros. Las decisiones impulsadas por ADS deben estar relacionadas con el trabajo y ser consistentes con la necesidad empresarial si resultan en un impacto dispar sobre grupos protegidos.

La documentación, las pruebas y la retención de registros son importantes, especialmente cuando los empleadores pueden necesitar explicar cómo las herramientas automatizadas influyeron en las decisiones laborales. Los proveedores pueden ser tratados como agentes bajo la ley, lo que aumenta la importancia de la diligencia con respecto a los proveedores y la gobernanza de contratos.

Una nueva teoría de responsabilidad para herramientas de contratación de IA

Una demanda colectiva recientemente presentada contra un proveedor de herramientas de contratación de IA destaca un área diferente de exposición para los empleadores. Los solicitantes de empleo alegan que los puntajes y clasificaciones generados por la IA funcionan como «informes de consumidores» bajo la Ley de Informe de Crédito Justo y la Ley de Agencias de Informes de Consumidores de California.

Según la demanda, la plataforma del proveedor evalúa la información del solicitante y proporciona puntajes o clasificaciones que influyen en las decisiones de contratación. Los demandantes alegan que no se les brindó la divulgación adecuada, no autorizaron la creación de dichos informes y no tuvieron la oportunidad de impugnar la información antes de que se tomaran decisiones de contratación adversas.

Si los tribunales aceptan esta teoría, las implicaciones podrían extenderse más allá del caso específico. Cualquier herramienta de IA de terceros que reúna datos del solicitante y produzca resultados evaluativos utilizados en decisiones laborales podría implicar obligaciones de informes de consumidores, independientemente de que el empleador crea que está principalmente gestionando el riesgo de discriminación.

Implicaciones para los empleadores en 2026

Las regulaciones de ADS de California, la litigación existente y la nueva demanda destacan que el riesgo laboral relacionado con la IA abarca múltiples marcos legales, incluidas las leyes de no discriminación y las estatales sobre informes de consumidores, centradas en la notificación y los derechos de impugnación.

Para los empleadores, esto significa que la gobernanza de la IA debe enfocarse tanto en los resultados como en los procesos. En términos prácticos, deben considerar:

  • Hacer un inventario de las herramientas de IA y ADS utilizadas en cualquier etapa del proceso de contratación.
  • Comprender qué datos recopilan, evalúan o inferen estas herramientas.
  • Evaluar si las salidas de IA podrían caracterizarse como informes o puntajes que influyen materialmente en las decisiones laborales.
  • Revisar acuerdos con proveedores, divulgaciones y flujos de trabajo internos para alinearse con las obligaciones de cumplimiento tanto en materia de no discriminación como de procedimiento.

Conclusión

Las herramientas de contratación habilitadas por IA siguen siendo permisibles y valiosas, pero el panorama legal que regula su uso continúa evolucionando. Las regulaciones de ADS de California confirman que la IA está claramente dentro del ámbito de la ley de discriminación laboral, mientras que litigaciones emergentes como el caso mencionado indican que la transparencia y el cumplimiento procesal podrían ser la próxima gran frontera del riesgo laboral relacionado con la IA.

Los empleadores que traten la gobernanza de la IA como un problema integral de cumplimiento, en lugar de una preocupación tecnológica estrecha, estarán mejor posicionados para gestionar estos riesgos superpuestos en 2026 y más allá.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...