Regulaciones Emergentes de IA en el Empleo en California

Navegando las Nuevas y Emergentes Regulaciones de Empleo de IA en California

El Consejo de Derechos Civiles de California y la Agencia de Protección de la Privacidad de California han aprobado recientemente regulaciones que imponen requisitos a los empleadores que utilizan sistemas de decisión automatizados o tecnologías de toma de decisiones automatizadas en decisiones de empleo o ciertos procesos de recursos humanos.

Regulaciones del Consejo de Derechos Civiles de California

Las regulaciones del Consejo de Derechos Civiles de California (CCRC) sobre sistemas de decisión automatizados (ADS) entraron en vigor el 1 de octubre de 2025. Estas regulaciones, destinadas a abordar la posible discriminación cuando las empresas utilizan herramientas de inteligencia artificial para tomar decisiones sobre el personal, se aplican a empleadores con cinco o más empleados en California. Las disposiciones notables incluyen:

  • Tecnologías cubiertas: Se define un ADS como un proceso computacional que toma decisiones o facilita la toma de decisiones humanas respecto a un beneficio laboral. Un ADS puede utilizar inteligencia artificial, aprendizaje automático, algoritmos, estadísticas u otras técnicas de procesamiento de datos.
  • Discriminación laboral: Se aclara que es ilegal, bajo la Ley de Vivienda y Empleo Justo de California (FEHA), que un empleador use un ADS que resulte en discriminación contra un solicitante o empleado basado en una clase protegida bajo la FEHA (es decir, raza, origen nacional, género, edad, religión, discapacidad, etc.).
  • Pruebas anti-bias: Las regulaciones permiten que las pruebas anti-bias se utilicen como defensa en reclamaciones de discriminación. Por el contrario, la ausencia de pruebas anti-bias puede ser utilizada como evidencia en una reclamación contra un empleador.
  • Retención de registros: Un empleador debe conservar los registros relacionados con ADS, incluidos los criterios de selección, salidas relevantes y hallazgos de auditoría, durante cuatro años.

Regulaciones de la Agencia de Protección de la Privacidad de California

La Agencia de Protección de la Privacidad de California (CPPA) ha aprobado regulaciones sobre el uso de tecnologías de toma de decisiones automatizadas (ADMT) en decisiones «significativas» sobre consumidores, incluidos empleados. Las empresas deben cumplir con las regulaciones a partir del 1 de enero de 2027. Las disposiciones notables incluyen:

  • Tecnologías cubiertas: Se define ADMT como cualquier tecnología que procesa información personal y utiliza computación para reemplazar la toma de decisiones humana o sustituirla sustancialmente.
  • Decisión significativa: Incluye oportunidades de empleo o contratación independiente, como contratación, asignación de trabajo, compensación, promoción, despido, suspensión o terminación.
  • Aviso previo: Las empresas que utilizan ADMT para tomar decisiones significativas deben proporcionar un aviso previo describiendo el uso de ADMT y los derechos del consumidor para optar por no participar y acceder a ADMT.
  • Acceso: Las empresas deben proporcionar información sobre su uso de ADMT, incluyendo el propósito de la tecnología y la lógica involucrada, al responder a una solicitud de acceso del consumidor.
  • Evaluaciones de riesgo: Las empresas deben realizar una evaluación de riesgos antes de usar ADMT para tomar decisiones significativas respecto a empleados y solicitantes.

Legislación Reciente

La Legislatura de California ha aprobado recientemente el SB 7, conocido como la «Ley No Robo Bosses», que requeriría notificación, supervisión humana y corroboración cuando los empleadores utilizan sistemas de decisión automatizados para decisiones que impactan la vida laboral de los trabajadores. El Gobernador tiene hasta el 12 de octubre para firmar o vetar el proyecto de ley.

Por otro lado, el Gobernador ha firmado el SB 53, que entrará en vigor el 1 de enero de 2026. Esta nueva ley proporciona protecciones de denunciantes para empleados de grandes empresas de IA en relación con preocupaciones sobre actividades de la empresa que representan un peligro específico y sustancial para la salud pública o la seguridad.

Próximos Pasos

Los empleadores deben prepararse para las regulaciones y nuevas leyes relevantes comprendiendo las tecnologías que sus departamentos de recursos humanos y otros departamentos están utilizando o planean usar, que podrían activar estos requisitos legales. Es fundamental desarrollar políticas y procesos para asegurar el cumplimiento de los requisitos pertinentes al usar IA en el contexto laboral.

Para más mejores prácticas sobre el uso de IA en el lugar de trabajo, se recomienda revisar publicaciones anteriores sobre el tema.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...