La Guía sobre el Uso de IA en la Contratación de Nueva Jersey
El 9 de enero de 2025, el Fiscal General de Nueva Jersey, Matthew J. Platkin, y la División de Derechos Civiles de Nueva Jersey (DCR) anunciaron el lanzamiento de una Iniciativa de Derechos Civiles y Tecnología. Esta iniciativa busca abordar los riesgos de discriminación y acoso basado en sesgos que pueden surgir del uso de la inteligencia artificial (IA) y otras tecnologías avanzadas. Como parte de esta iniciativa, se emitió una guía que explica cómo la Ley de Nueva Jersey contra la Discriminación (LAD) se aplica a la discriminación resultante del uso de la IA.
Discriminación Algorítmica
La guía aclara que la LAD se aplica a la discriminación algorítmica, lo que significa que cualquier discriminación que resulte del uso de herramientas de decisión automatizadas por parte de un empleador es tratada de la misma manera que cualquier otra conducta discriminatoria. De hecho, incluso si el empleador no desarrolló la herramienta de IA y no es consciente de la discriminación algorítmica que esta puede perpetuar, aún puede ser responsable bajo la LAD. Por lo tanto, los empleadores deben considerar cuidadosamente cómo utilizan la IA para evitar posibles responsabilidades por discriminación algorítmica.
Discriminación por Tratamiento Desigual y Desigualdad de Impacto
La guía proporciona varios ejemplos de discriminación algorítmica. Se menciona que las herramientas de IA pueden incurrir en discriminación por tratamiento desigual si están diseñadas o se utilizan para tratar a miembros de una clase protegida de manera diferente. Por ejemplo, un empleador podría ser responsable de discriminación por tratamiento desigual si utiliza IA únicamente para evaluar a miembros de un grupo específico, como seleccionar solo a postulantes negros y no a otros grupos raciales.
Además, incluso si una herramienta de IA no se utiliza de manera selectiva y no considera directamente una característica protegida, puede hacer recomendaciones basadas en un proxi cercano a una característica protegida, como la raza o el sexo.
Las herramientas de IA también pueden incurrir en discriminación por impacto desigual si sus criterios, que a primera vista no son discriminatorios, tienen un efecto negativo desproporcionado sobre miembros de una clase protegida. Por ejemplo, una empresa que utiliza IA para evaluar ofertas de contratos podría estar excluyendo desproporcionadamente ofertas de negocios propiedad de mujeres.
Ajustes Razonables
La guía también advierte que el uso de herramientas de IA por parte de un empleador puede violar la LAD si impide o dificulta la provisión de ajustes razonables. Por ejemplo, al usarse en la contratación, la IA puede excluir desproporcionadamente a postulantes que podrían desempeñar el trabajo con un ajuste razonable. Asimismo, si un empleador utiliza IA para rastrear la productividad y los tiempos de descanso de sus empleados, puede señalar desproporcionadamente para disciplina a aquellos a quienes se les permite más tiempo de descanso para acomodar una discapacidad.
Responsabilidad
Es importante destacar que la guía tiene una visión amplia de quién puede ser considerado responsable por la discriminación algorítmica. Al igual que con otras guías y leyes relacionadas con la IA, bajo la LAD, los empleadores no pueden trasladar la responsabilidad a sus proveedores de IA o desarrolladores externos, incluso si no conocen el funcionamiento interno de la herramienta o no comprenden cómo opera.
Mejores Prácticas
Para disminuir el riesgo de responsabilidad bajo la LAD, los empleadores deben tomar ciertas medidas para asegurarse de que las herramientas de IA que utilizan para tomar o informar decisiones laborales no estén incurriendo en sesgo algorítmico o violando de otro modo la LAD. Estas medidas incluyen:
- Crear un grupo de IA responsable de supervisar la implementación de las herramientas de IA, compuesto por una representación diversa de la organización, como miembros de los departamentos legal, recursos humanos, privacidad, comunicaciones e IT.
- Implementar políticas y procedimientos relacionados con la IA.
- Realizar capacitaciones sobre las herramientas de IA y el sesgo algorítmico, permitiendo su uso solo a empleados que hayan completado la capacitación.
- Evaluar minuciosamente a los proveedores y herramientas de IA.
- Asegurar disposiciones contractuales adecuadas de los proveedores de IA que incluyan el cumplimiento de todas las leyes aplicables, y la obligación de proporcionar información razonablemente solicitada por el empleador sobre los algoritmos.
- Abordar rápidamente cualquier problema identificado en las auditorías o pruebas.
- Revisar cualquier póliza de seguro de responsabilidad laboral o cualquier otra póliza de seguro aplicable para verificar la disponibilidad de cobertura.
- Asegurar que siempre haya un elemento humano en cualquier toma de decisiones que involucre una herramienta de IA.
Este enfoque proactivo no solo protege a los empleadores de posibles responsabilidades, sino que también fomenta un entorno laboral equitativo y justo, alineándose con los principios de la Ley de Nueva Jersey contra la Discriminación.