Contratación Asistida por IA en 2026: Gestión del Riesgo de Discriminación
Para los grandes empleadores, así como para las empresas tecnológicas que proporcionan plataformas de contratación, el perfil de riesgo en torno a la contratación asistida por IA ha pasado de ser una «preocupación futura» a algo que debe ser atendido de inmediato. El punto central es simple: utilizar un algoritmo no reduce las obligaciones contra la discriminación; a menudo aumenta la necesidad de validación, monitoreo, documentación y supervisión de proveedores.
Los estados e incluso los municipios han pasado de declaraciones generales a requisitos específicos (por ejemplo, auditorías, avisos, mantenimiento de registros y obligaciones de sistemas «de alto riesgo»), creando un mosaico del cual los grandes empleadores de múltiples estados deben estar al tanto. Además, las leyes federales y estatales contra la discriminación existentes siguen vigentes y se aplican a las decisiones de empleo asistidas por IA.
1. La base federal: la IA no cambia las reglas
Aún sin una «ley federal sobre contratación por IA» integral, el marco federal existente ya crea una exposición significativa:
Título VII y impacto dispar. La Comisión de Igualdad de Oportunidades en el Empleo (EEOC) ha enfatizado que los empleadores que utilizan software, algoritmos o IA como «procedimientos de selección» pueden enfrentar responsabilidad por impacto dispar si los resultados excluyen desproporcionadamente a grupos protegidos y el empleador no puede demostrar la relación laboral necesaria (y no puede mostrar que no había una alternativa menos discriminatoria).
Americans with Disabilities Act (ADA) y adaptaciones. Las herramientas algorítmicas pueden crear riesgo de discriminación bajo la ley federal de varias maneras recurrentes: (1) «excluyendo» a individuos debido a características relacionadas con discapacidades; (2) utilizando herramientas que efectivamente realizan indagaciones relacionadas con discapacidades o exámenes médicos antes de la oferta; y (3) no proporcionar adaptaciones razonables en un proceso impulsado por IA.
En el contexto de la IA, tu postura de defensa puede depender menos de si «intencionabas» la discriminación y más de si puedes demostrar que tu sistema de contratación (incluidos los sistemas de proveedores) es medible, monitoreado y defensible como relacionado con el trabajo.
2. El litigio de Workday: por qué los proveedores y «operadores de plataformas» están en el marco
El caso Mobley v. Workday se considera un indicador importante porque pone a prueba si un proveedor de tecnología de recursos humanos puede ser tratado como un «agente» que realiza funciones de contratación para los empleadores y, por lo tanto, enfrentar responsabilidad bajo las leyes federales de anti-discriminación. El tribunal permitió que las reclamaciones procedieran sobre la teoría de que Workday podría ser considerado un «agente» llevando a cabo funciones delegadas de contratación.
Dos aspectos son relevantes para los asesores legales en grandes empresas:
La delegación crea responsabilidad potencial. Cuanto más confíe una empresa en un sistema para rechazar, clasificar o dirigir candidatos con mínima intervención humana, más fácil será para los demandantes argumentar que la herramienta está realizando efectivamente una función de contratación y que tanto el empleador como el proveedor/plataforma deberían ser responsables.
La postura colectiva/a nivel de clase aumenta la presión de acuerdo y las cargas de descubrimiento. El tribunal otorgó la certificación condicional de una acción colectiva bajo la Ley de Discriminación por Edad en el Empleo (ADEA), lo que representa una escalada significativa porque aumenta el aviso, el alcance del descubrimiento y la exposición, incluso antes de que se decidan los méritos.
3. Leyes de contratación específicas de IA a nivel estatal y municipal
Nueva York: Ley Local 144. Nueva York tuvo la primera ley relacionada con la contratación asistida por IA en el país. En términos generales, los empleadores y agencias de empleo no pueden utilizar una «herramienta de decisión de empleo automatizada» (AEDT) a menos que (i) la herramienta haya pasado por una auditoría de sesgo en el último año, (ii) la información sobre la auditoría esté disponible públicamente y (iii) los candidatos (o empleados para promociones) reciban avisos prescritos.
Para los grandes empleadores, el desafío operativo es menos «¿podemos hacer una auditoría?» y más «¿podemos hacer una auditoría que se alinee con cómo funciona realmente la herramienta y cómo la utilizamos?», incluyendo aclarar la etapa relevante (filtrar, clasificar, recomendar), las categorías de datos disponibles (y faltantes) y qué se está publicando.
California: regulaciones de «sistemas de decisión automatizados» bajo FEHA. El Consejo de Derechos Civiles de California obtuvo la aprobación final para regulaciones que abordan el riesgo de discriminación de IA, algoritmos y sistemas de decisión automatizados, con fecha de entrada en vigor el 1 de octubre de 2025. El objetivo declarado no es crear un nuevo régimen de anti-discriminación, sino aclarar cómo los principios existentes de la Ley de Empleo Justo y la Vivienda (FEHA) se aplican cuando las decisiones de contratación, promoción y otras decisiones de empleo son hechas o influidas por sistemas automatizados.
Illinois: dos regímenes diferentes para mantener distintos. Illinois es notable porque tiene (al menos) dos pistas diferentes, fácilmente confundibles: para grandes empleadores, el punto importante es la gobernanza: asegurar que el conjunto de tecnología de recursos humanos esté inventariado para que sepas qué herramientas son «análisis de entrevistas en video», cuáles son «clasificación de currículums», cuáles son «puntuación de evaluaciones» y cuáles son «automatización de flujos de trabajo», porque diferentes deberes en Illinois pueden activarse dependiendo de la funcionalidad.
Colorado: obligaciones de «sistemas de IA de alto riesgo» y deberes de discriminación algorítmica. La SB 24-205 de Colorado, que entrará en vigor este año, establece obligaciones para los desarrolladores y desplegadores de «sistemas de IA de alto riesgo» utilizados para tomar o influir sustancialmente en «decisiones trascendentales», incluidas las decisiones relacionadas con el empleo. La legislatura de Colorado describe los deberes del empleador, incluyendo el cuidado razonable para proteger a los consumidores de riesgos conocidos o previsibles de discriminación algorítmica, y contempla un marco de cumplimiento con documentación y avisos.
4. En lugar de crear nuevos regímenes, algunos estados aclaran que se aplican leyes existentes
Nuevo Jersey: La División de Derechos Civiles de Nuevo Jersey emitió una guía formal dejando claro que la Ley de Nuevo Jersey contra la Discriminación puede alcanzar la discriminación algorítmica, incluyendo donde las herramientas crean un impacto dispar o impiden adaptaciones.
Oregón: El Fiscal General de Oregón emitió una guía similar enfatizando que las empresas que usan IA aún deben cumplir con las leyes existentes de Oregón (protección del consumidor, privacidad y otros requisitos), enmarcando la IA como un multiplicador de riesgos en lugar de un silo legal separado.
Aunque la guía no es lo mismo que una ley con auditorías y avisos detallados, sigue siendo altamente relevante para el cálculo de riesgo de una empresa.
5. Programas de cumplimiento práctico para grandes empleadores en 2026
Para los abogados internos, el objetivo no es probar que la IA es justa en abstracto, sino crear un sistema defensible que reduzca la probabilidad de resultados discriminatorios y mejore tu postura en litigios o regulación si se presenta un desafío.
Comienza con un inventario. Documenta cada herramienta que filtra, clasifica, recomienda, programa, puntúa o dirige candidatos, incluyendo motores de reglas «simples» y complementos de terceros. Luego, clasifica las herramientas según cuánto influyen en los resultados (informativo vs. determinante). Esta clasificación es relevante en argumentos de estilo agencia (como en Mobley) y en marcos estatales de «alto riesgo».
Construye un ciclo de pruebas y monitoreo repetible. Trata el análisis de impacto adverso como un control recurrente, no como un proyecto único. La EEOC ha conectado explícitamente las herramientas de contratación por IA a conceptos de impacto dispar. En la práctica, los empleadores deben (i) probar en cada etapa de selección, (ii) documentar umbrales y desencadenantes de escalada, y (iii) preservar versiones anteriores de modelos y configuraciones para explicar los cambios a lo largo del tiempo.
Planifica adaptaciones en el flujo de trabajo, no como un pensamiento posterior. El riesgo de ADA es a menudo operativo: un candidato no puede completar una evaluación cronometrada, una herramienta de entrevista en video excluye patrones de habla o un sistema automatizado rechaza trayectorias profesionales no estándar que se correlacionan con discapacidades. Incorpora (y documenta) un camino de adaptación razonable y un método de evaluación alternativo.
Distribuye el riesgo adecuadamente en los contratos de proveedores. Además de cláusulas de seguridad y privacidad, los términos del proveedor deben abordar: transparencia sobre las características utilizadas; cooperación en auditorías; retención de registros; asignación de responsabilidad para divulgaciones específicas de jurisdicción (por ejemplo, Nueva York); y acceso a evidencia de validación.
Alinea un registro listo para litigios. Los demandantes buscarán: (a) entradas y características del modelo, (b) documentación de formación y validación, (c) análisis de impacto adverso, (d) prácticas de anulación humana y (e) comunicaciones con proveedores. El litigio de Mobley muestra que estos casos se están litigando con expectativas de descubrimiento profundo y exposición potencial agregada.
Resumen
En 2026, la pregunta es si puedes demostrar gobernanza sobre los procedimientos de selección automatizados que es acorde con su influencia en los resultados de contratación. La postura más defensible para un gran empleador es tratar la contratación asistida por IA como un sistema de selección regulado para que, cuando llegue el inevitable desafío (de un solicitante, regulador o abogado de clase), puedas documentar adecuadamente los procesos.