Guía sobre el Uso de IA en Contratación y Derechos Civiles en Nueva Jersey

La Guía sobre el Uso de IA en la Contratación de Nueva Jersey

El 9 de enero de 2025, el Fiscal General de Nueva Jersey, Matthew J. Platkin, y la División de Derechos Civiles de Nueva Jersey (DCR) anunciaron el lanzamiento de una Iniciativa de Derechos Civiles y Tecnología. Esta iniciativa busca abordar los riesgos de discriminación y acoso basado en sesgos que pueden surgir del uso de la inteligencia artificial (IA) y otras tecnologías avanzadas. Como parte de esta iniciativa, se emitió una guía que explica cómo la Ley de Nueva Jersey contra la Discriminación (LAD) se aplica a la discriminación resultante del uso de la IA.

Discriminación Algorítmica

La guía aclara que la LAD se aplica a la discriminación algorítmica, lo que significa que cualquier discriminación que resulte del uso de herramientas de decisión automatizadas por parte de un empleador es tratada de la misma manera que cualquier otra conducta discriminatoria. De hecho, incluso si el empleador no desarrolló la herramienta de IA y no es consciente de la discriminación algorítmica que esta puede perpetuar, aún puede ser responsable bajo la LAD. Por lo tanto, los empleadores deben considerar cuidadosamente cómo utilizan la IA para evitar posibles responsabilidades por discriminación algorítmica.

Discriminación por Tratamiento Desigual y Desigualdad de Impacto

La guía proporciona varios ejemplos de discriminación algorítmica. Se menciona que las herramientas de IA pueden incurrir en discriminación por tratamiento desigual si están diseñadas o se utilizan para tratar a miembros de una clase protegida de manera diferente. Por ejemplo, un empleador podría ser responsable de discriminación por tratamiento desigual si utiliza IA únicamente para evaluar a miembros de un grupo específico, como seleccionar solo a postulantes negros y no a otros grupos raciales.

Además, incluso si una herramienta de IA no se utiliza de manera selectiva y no considera directamente una característica protegida, puede hacer recomendaciones basadas en un proxi cercano a una característica protegida, como la raza o el sexo.

Las herramientas de IA también pueden incurrir en discriminación por impacto desigual si sus criterios, que a primera vista no son discriminatorios, tienen un efecto negativo desproporcionado sobre miembros de una clase protegida. Por ejemplo, una empresa que utiliza IA para evaluar ofertas de contratos podría estar excluyendo desproporcionadamente ofertas de negocios propiedad de mujeres.

Ajustes Razonables

La guía también advierte que el uso de herramientas de IA por parte de un empleador puede violar la LAD si impide o dificulta la provisión de ajustes razonables. Por ejemplo, al usarse en la contratación, la IA puede excluir desproporcionadamente a postulantes que podrían desempeñar el trabajo con un ajuste razonable. Asimismo, si un empleador utiliza IA para rastrear la productividad y los tiempos de descanso de sus empleados, puede señalar desproporcionadamente para disciplina a aquellos a quienes se les permite más tiempo de descanso para acomodar una discapacidad.

Responsabilidad

Es importante destacar que la guía tiene una visión amplia de quién puede ser considerado responsable por la discriminación algorítmica. Al igual que con otras guías y leyes relacionadas con la IA, bajo la LAD, los empleadores no pueden trasladar la responsabilidad a sus proveedores de IA o desarrolladores externos, incluso si no conocen el funcionamiento interno de la herramienta o no comprenden cómo opera.

Mejores Prácticas

Para disminuir el riesgo de responsabilidad bajo la LAD, los empleadores deben tomar ciertas medidas para asegurarse de que las herramientas de IA que utilizan para tomar o informar decisiones laborales no estén incurriendo en sesgo algorítmico o violando de otro modo la LAD. Estas medidas incluyen:

  1. Crear un grupo de IA responsable de supervisar la implementación de las herramientas de IA, compuesto por una representación diversa de la organización, como miembros de los departamentos legal, recursos humanos, privacidad, comunicaciones e IT.
  2. Implementar políticas y procedimientos relacionados con la IA.
  3. Realizar capacitaciones sobre las herramientas de IA y el sesgo algorítmico, permitiendo su uso solo a empleados que hayan completado la capacitación.
  4. Evaluar minuciosamente a los proveedores y herramientas de IA.
  5. Asegurar disposiciones contractuales adecuadas de los proveedores de IA que incluyan el cumplimiento de todas las leyes aplicables, y la obligación de proporcionar información razonablemente solicitada por el empleador sobre los algoritmos.
  6. Abordar rápidamente cualquier problema identificado en las auditorías o pruebas.
  7. Revisar cualquier póliza de seguro de responsabilidad laboral o cualquier otra póliza de seguro aplicable para verificar la disponibilidad de cobertura.
  8. Asegurar que siempre haya un elemento humano en cualquier toma de decisiones que involucre una herramienta de IA.

Este enfoque proactivo no solo protege a los empleadores de posibles responsabilidades, sino que también fomenta un entorno laboral equitativo y justo, alineándose con los principios de la Ley de Nueva Jersey contra la Discriminación.

More Insights

Protegiendo la Información Confidencial en la Era de la IA

Es importante tener cuidado con la información que compartimos al utilizar herramientas de inteligencia artificial, especialmente en un entorno laboral. La divulgación de datos confidenciales puede...

La Ley de IA de Colorado: Desafíos y Oportunidades

La ley pionera de Colorado sobre inteligencia artificial refleja importantes objetivos de equidad y transparencia en el uso de la IA. Sin embargo, la falta de adopción del SB318 deja a los empleadores...

Desafíos de Cumplimiento en la Era de la IA

La cumbre de Gobernanza y Estrategia de IA abordará los desafíos de cumplimiento y regulación de la inteligencia artificial en diferentes jurisdicciones. Expertos discutirán estrategias prácticas para...

Gobernanza Efectiva de IA en el Gobierno Federal

La inteligencia artificial (IA) avanza rápidamente, pero muchos organismos federales luchan por mantener una gobernanza adecuada, lo que ralentiza la innovación. La gobernanza eficaz de la IA no solo...

Claves del Éxito Empresarial: Gobernanza de IA y Centros de Excelencia

La inteligencia artificial se ha convertido en un factor fundamental para las empresas, pero su adopción efectiva presenta desafíos. Un Centro de Excelencia en IA actúa como un hub de innovación...

Nuevas Leyes de IA: Enfoques Contrastantes en Colorado y Utah

La legislatura de Colorado rechazó enmiendas al Acta de Inteligencia Artificial de Colorado, lo que establece un plazo hacia la fecha de efectividad de la ley el 1 de febrero de 2026. Mientras tanto...

Desafíos en la Aplicación de la Ley de IA de la UE por Falta de Recursos

Las luchas con la financiación y la retención de expertos plantearán desafíos para la aplicación de la Ley de IA de la UE, según el asesor de políticas digitales del Parlamento Europeo, Kai Zenner...

Fortaleciendo la Gobernanza de IA en Universidades

A medida que la inteligencia artificial (IA) se integra en la educación superior, las universidades deben adoptar prácticas de gobernanza robustas para garantizar un uso responsable de la IA. Esto...

Equilibrio entre la Innovación y la Seguridad en la IA

El congresista Ted Lieu está comprometido con equilibrar la innovación de la inteligencia artificial (IA) y la seguridad, abogando por un marco regulatorio que fomente la innovación sin comprometer la...