Guía sobre el Uso de IA en Contratación y Derechos Civiles en Nueva Jersey

La Guía sobre el Uso de IA en la Contratación de Nueva Jersey

El 9 de enero de 2025, el Fiscal General de Nueva Jersey, Matthew J. Platkin, y la División de Derechos Civiles de Nueva Jersey (DCR) anunciaron el lanzamiento de una Iniciativa de Derechos Civiles y Tecnología. Esta iniciativa busca abordar los riesgos de discriminación y acoso basado en sesgos que pueden surgir del uso de la inteligencia artificial (IA) y otras tecnologías avanzadas. Como parte de esta iniciativa, se emitió una guía que explica cómo la Ley de Nueva Jersey contra la Discriminación (LAD) se aplica a la discriminación resultante del uso de la IA.

Discriminación Algorítmica

La guía aclara que la LAD se aplica a la discriminación algorítmica, lo que significa que cualquier discriminación que resulte del uso de herramientas de decisión automatizadas por parte de un empleador es tratada de la misma manera que cualquier otra conducta discriminatoria. De hecho, incluso si el empleador no desarrolló la herramienta de IA y no es consciente de la discriminación algorítmica que esta puede perpetuar, aún puede ser responsable bajo la LAD. Por lo tanto, los empleadores deben considerar cuidadosamente cómo utilizan la IA para evitar posibles responsabilidades por discriminación algorítmica.

Discriminación por Tratamiento Desigual y Desigualdad de Impacto

La guía proporciona varios ejemplos de discriminación algorítmica. Se menciona que las herramientas de IA pueden incurrir en discriminación por tratamiento desigual si están diseñadas o se utilizan para tratar a miembros de una clase protegida de manera diferente. Por ejemplo, un empleador podría ser responsable de discriminación por tratamiento desigual si utiliza IA únicamente para evaluar a miembros de un grupo específico, como seleccionar solo a postulantes negros y no a otros grupos raciales.

Además, incluso si una herramienta de IA no se utiliza de manera selectiva y no considera directamente una característica protegida, puede hacer recomendaciones basadas en un proxi cercano a una característica protegida, como la raza o el sexo.

Las herramientas de IA también pueden incurrir en discriminación por impacto desigual si sus criterios, que a primera vista no son discriminatorios, tienen un efecto negativo desproporcionado sobre miembros de una clase protegida. Por ejemplo, una empresa que utiliza IA para evaluar ofertas de contratos podría estar excluyendo desproporcionadamente ofertas de negocios propiedad de mujeres.

Ajustes Razonables

La guía también advierte que el uso de herramientas de IA por parte de un empleador puede violar la LAD si impide o dificulta la provisión de ajustes razonables. Por ejemplo, al usarse en la contratación, la IA puede excluir desproporcionadamente a postulantes que podrían desempeñar el trabajo con un ajuste razonable. Asimismo, si un empleador utiliza IA para rastrear la productividad y los tiempos de descanso de sus empleados, puede señalar desproporcionadamente para disciplina a aquellos a quienes se les permite más tiempo de descanso para acomodar una discapacidad.

Responsabilidad

Es importante destacar que la guía tiene una visión amplia de quién puede ser considerado responsable por la discriminación algorítmica. Al igual que con otras guías y leyes relacionadas con la IA, bajo la LAD, los empleadores no pueden trasladar la responsabilidad a sus proveedores de IA o desarrolladores externos, incluso si no conocen el funcionamiento interno de la herramienta o no comprenden cómo opera.

Mejores Prácticas

Para disminuir el riesgo de responsabilidad bajo la LAD, los empleadores deben tomar ciertas medidas para asegurarse de que las herramientas de IA que utilizan para tomar o informar decisiones laborales no estén incurriendo en sesgo algorítmico o violando de otro modo la LAD. Estas medidas incluyen:

  1. Crear un grupo de IA responsable de supervisar la implementación de las herramientas de IA, compuesto por una representación diversa de la organización, como miembros de los departamentos legal, recursos humanos, privacidad, comunicaciones e IT.
  2. Implementar políticas y procedimientos relacionados con la IA.
  3. Realizar capacitaciones sobre las herramientas de IA y el sesgo algorítmico, permitiendo su uso solo a empleados que hayan completado la capacitación.
  4. Evaluar minuciosamente a los proveedores y herramientas de IA.
  5. Asegurar disposiciones contractuales adecuadas de los proveedores de IA que incluyan el cumplimiento de todas las leyes aplicables, y la obligación de proporcionar información razonablemente solicitada por el empleador sobre los algoritmos.
  6. Abordar rápidamente cualquier problema identificado en las auditorías o pruebas.
  7. Revisar cualquier póliza de seguro de responsabilidad laboral o cualquier otra póliza de seguro aplicable para verificar la disponibilidad de cobertura.
  8. Asegurar que siempre haya un elemento humano en cualquier toma de decisiones que involucre una herramienta de IA.

Este enfoque proactivo no solo protege a los empleadores de posibles responsabilidades, sino que también fomenta un entorno laboral equitativo y justo, alineándose con los principios de la Ley de Nueva Jersey contra la Discriminación.

More Insights

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...

Guía esencial de la AMA para la adopción y gobernanza de la IA en el sector salud

La AMA ha publicado una guía sobre la adopción y gobernanza de la inteligencia artificial (IA) para sistemas de salud, destacando la importancia de establecer políticas adecuadas en un entorno...

La ONU establece un panel sobre IA y un diálogo global para su gobernanza

La Asamblea General de las Naciones Unidas ha adoptado una resolución para establecer un Panel Científico Internacional Independiente sobre Inteligencia Artificial y un Diálogo Global sobre la...

La próxima ola de amenazas cibernéticas: del envenenamiento de datos a los agentes de IA

A medida que la inteligencia artificial (IA) se adopta rápidamente en diversas industrias, también aumenta la exposición a riesgos cibernéticos. Los modelos de IA generativa están creando nuevas...

Ética y Gobernanza de la IA en el Sudeste Asiático

En este artículo, Nguyen Hoang Minh Ngoc explora el panorama actual de la gobernanza y la ética de la inteligencia artificial (IA) en los seis países del sudeste asiático. Se destaca la necesidad de...