Desafíos Legales en la Regulación de la IA en el Empleo

¿Cuáles son las reglas que gobiernan al jefe algorítmico? Leyes estatales de empleo de IA, amenazas de preeminencia federal y la próxima ola de litigios

Varias leyes estatales sobre empleo de IA —en Illinois, Texas y Colorado— han entrado en vigor o entrarán en vigor este año, imponiendo auditorías de sesgo, requisitos de notificación, derechos de apelación y evaluaciones de impacto a los empleadores que utilizan IA en decisiones de recursos humanos. Al mismo tiempo, la Orden Ejecutiva 14365 de la Casa Blanca, emitida en diciembre de 2025, dirigió la creación de un nuevo Grupo de Trabajo de Litigios de IA a nivel federal para desafiar leyes estatales de IA «gravosas», consideradas inconsistentes con un marco de política nacional de IA mínimamente gravoso. El resultado es un choque constitucional que moldeará directamente cómo los empleadores diseñan y despliegan herramientas de contratación algorítmica.

El nuevo mosaico: Tres estados, tres enfoques

El marco emergente a nivel estatal que rige la IA en decisiones de empleo es todo menos uniforme.

La Ley de Inteligencia Artificial de Colorado (SB 24-205) crea deberes tanto para «desarrolladores» como para «desplegadores» de sistemas de IA de alto riesgo utilizados para decisiones de empleo. Con la implementación retrasada hasta el 30 de junio de 2026, la ley requiere programas de gestión de riesgos, evaluaciones de impacto anuales, notificación a trabajadores por decisiones de empleo significativas y notificación a la Procuraduría General dentro de los 90 días tras descubrir discriminación algorítmica.

La HB 3773 de Illinois enmienda la Ley de Derechos Humanos de Illinois, que entra en vigor el 1 de enero de 2026, para cubrir expresamente la discriminación mediada por IA. Los empleadores no pueden usar IA que tenga «el efecto» de someter a empleados o solicitantes a discriminación a lo largo de todo el ciclo de empleo, desde la contratación hasta la terminación.

La Ley de Gobernanza Responsable de la Inteligencia Artificial de Texas (TRAIGA), también en vigor el 1 de enero de 2026, adopta la posición más restrictiva. Prohíbe los sistemas de IA desarrollados o desplegados con la intención de discriminar ilegalmente y aclara que el impacto desigual por sí solo no establece una violación. La aplicación recae exclusivamente en el Fiscal General de Texas, sin derecho de acción privada y con un período de reparación de 60 días.

El espectro es notable: Colorado exige una infraestructura de gobernanza proactiva, Illinois codifica un estándar de impacto desigual, y Texas limita la responsabilidad a la discriminación intencional. Y estos son solo los actos principales. Las enmiendas de FEHA de California y regímenes similares en docenas de estados añaden más complejidad.

El movimiento federal: Orden Ejecutiva 14365 y el Grupo de Trabajo de Litigios de IA

En este mosaico regulatorio, la Casa Blanca ha lanzado un desafío constitucional. Como se mencionó, la Orden Ejecutiva 14365 dirige al Fiscal General a establecer un Grupo de Trabajo de Litigios de IA con la «única responsabilidad» de desafiar leyes estatales de IA consideradas inconsistentes con la política federal, incluyendo preeminencia y cláusulas comerciales inactivas. La orden también requiere que el Secretario de Comercio publique, para marzo de 2026, una evaluación que identifique leyes estatales de IA adecuadas para el desafío federal.

Las teorías legales para la próxima ola de demandas entre federal y estatal incluyen: preeminencia por obstáculos y conflictos, donde las leyes estatales obstruyen los objetivos de competitividad federal; desafíos a la cláusula comercial inactiva a leyes con alcance extraterritorial; y argumentos de la Primera Enmienda que enmarcan los mandatos de divulgación como discurso forzado. Pero los opositores han presentado defensas igualmente persuasivas de la gobernanza estatal de IA.

Es importante destacar que la ley federal de discriminación laboral ya rige las herramientas de contratación de IA. La orientación de la EEOC aborda la discriminación algorítmica bajo el Título VII, la ADA y la ADEA. El enfoque de la agencia en el impacto desigual, las acomodaciones razonables para solicitantes discapacitados y la transparencia en decisiones adversas establece una línea base de cumplimiento federal que se aplica independientemente de la preeminencia estatal. El conflicto federal-estatal concierne a requisitos específicos adicionales y no a si las herramientas de contratación de IA deben cumplir con la ley federal de derechos civiles.

Atrapados en el fuego cruzado: ¿Qué deben hacer los empleadores ahora?

Este choque federal-estatal crea un dilema de cumplimiento genuino. Los empleadores que inviertan en una infraestructura de gobernanza al estilo de Colorado pueden encontrar que esas obligaciones se suspenden o reducen por litigios federales. Sin embargo, los empleadores que retrasen el cumplimiento enfrentan la aplicación por parte de la Procuraduría General estatal y demandas privadas por discriminación que podrían utilizar estos estatutos como estándares de cuidado de facto, incluso cuando el estatuto de IA carezca de un derecho de acción privada.

El camino prudente es construir un marco de cumplimiento de «máximo común denominador». Esto incluye establecer una línea base central de gobernanza de IA que cubra pruebas independientes de sesgo, documentación de explicabilidad y revisión humana para decisiones adversas. Debe diseñarse para cumplir con los estándares de Colorado e Illinois, adaptándose hacia abajo para regímenes más restringidos como Texas y reflejando evaluaciones e informes de impacto específicos del estado.

Igualmente crítico: revisar los contratos con sus proveedores de IA ahora. Los proveedores pueden enfrentar obligaciones directas como «desarrolladores» bajo el marco de Colorado, y sus contratos deben asignar responsabilidades para el apoyo en pruebas de sesgo, acceso a datos para el cumplimiento y la notificación de incidentes.

Finalmente, monitoree de cerca las prioridades del Grupo de Trabajo del DOJ y la evaluación de Comercio de marzo de 2026. Construya planes de escenario para responder si se invalidan obligaciones estatales específicas mientras otras permanecen vigentes. Las preguntas constitucionales son fascinantes; las implicaciones prácticas para su próximo ciclo de contratación son inmediatas.

Conclusiones clave:

  1. El cumplimiento no puede esperar claridad constitucional. Las leyes estatales de empleo de IA son ejecutables ahora, y los empleadores que retrasen las inversiones en gobernanza están expuestos a la aplicación de la Procuraduría General y litigios por discriminación independientemente de los desafíos federales pendientes.
  2. El mosaico exige un enfoque de «máximo común denominador». Construir según el estándar más exigente —y luego adaptarse hacia abajo— es más eficiente y defensible que mantener silos de cumplimiento por jurisdicción.
  3. Los contratos con los proveedores son su primera línea de defensa. Los proveedores de tecnología de IA y recursos humanos tienen obligaciones directas bajo leyes como la CAIA de Colorado, y sus acuerdos deben asignar responsabilidades de pruebas, acceso a datos y notificación de incidentes en consecuencia.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...