Guía sobre el Uso de IA en Contratación y Derechos Civiles en Nueva Jersey

La Guía sobre el Uso de IA en la Contratación de Nueva Jersey

El 9 de enero de 2025, el Fiscal General de Nueva Jersey, Matthew J. Platkin, y la División de Derechos Civiles de Nueva Jersey (DCR) anunciaron el lanzamiento de una Iniciativa de Derechos Civiles y Tecnología. Esta iniciativa busca abordar los riesgos de discriminación y acoso basado en sesgos que pueden surgir del uso de la inteligencia artificial (IA) y otras tecnologías avanzadas. Como parte de esta iniciativa, se emitió una guía que explica cómo la Ley de Nueva Jersey contra la Discriminación (LAD) se aplica a la discriminación resultante del uso de la IA.

Discriminación Algorítmica

La guía aclara que la LAD se aplica a la discriminación algorítmica, lo que significa que cualquier discriminación que resulte del uso de herramientas de decisión automatizadas por parte de un empleador es tratada de la misma manera que cualquier otra conducta discriminatoria. De hecho, incluso si el empleador no desarrolló la herramienta de IA y no es consciente de la discriminación algorítmica que esta puede perpetuar, aún puede ser responsable bajo la LAD. Por lo tanto, los empleadores deben considerar cuidadosamente cómo utilizan la IA para evitar posibles responsabilidades por discriminación algorítmica.

Discriminación por Tratamiento Desigual y Desigualdad de Impacto

La guía proporciona varios ejemplos de discriminación algorítmica. Se menciona que las herramientas de IA pueden incurrir en discriminación por tratamiento desigual si están diseñadas o se utilizan para tratar a miembros de una clase protegida de manera diferente. Por ejemplo, un empleador podría ser responsable de discriminación por tratamiento desigual si utiliza IA únicamente para evaluar a miembros de un grupo específico, como seleccionar solo a postulantes negros y no a otros grupos raciales.

Además, incluso si una herramienta de IA no se utiliza de manera selectiva y no considera directamente una característica protegida, puede hacer recomendaciones basadas en un proxi cercano a una característica protegida, como la raza o el sexo.

Las herramientas de IA también pueden incurrir en discriminación por impacto desigual si sus criterios, que a primera vista no son discriminatorios, tienen un efecto negativo desproporcionado sobre miembros de una clase protegida. Por ejemplo, una empresa que utiliza IA para evaluar ofertas de contratos podría estar excluyendo desproporcionadamente ofertas de negocios propiedad de mujeres.

Ajustes Razonables

La guía también advierte que el uso de herramientas de IA por parte de un empleador puede violar la LAD si impide o dificulta la provisión de ajustes razonables. Por ejemplo, al usarse en la contratación, la IA puede excluir desproporcionadamente a postulantes que podrían desempeñar el trabajo con un ajuste razonable. Asimismo, si un empleador utiliza IA para rastrear la productividad y los tiempos de descanso de sus empleados, puede señalar desproporcionadamente para disciplina a aquellos a quienes se les permite más tiempo de descanso para acomodar una discapacidad.

Responsabilidad

Es importante destacar que la guía tiene una visión amplia de quién puede ser considerado responsable por la discriminación algorítmica. Al igual que con otras guías y leyes relacionadas con la IA, bajo la LAD, los empleadores no pueden trasladar la responsabilidad a sus proveedores de IA o desarrolladores externos, incluso si no conocen el funcionamiento interno de la herramienta o no comprenden cómo opera.

Mejores Prácticas

Para disminuir el riesgo de responsabilidad bajo la LAD, los empleadores deben tomar ciertas medidas para asegurarse de que las herramientas de IA que utilizan para tomar o informar decisiones laborales no estén incurriendo en sesgo algorítmico o violando de otro modo la LAD. Estas medidas incluyen:

  1. Crear un grupo de IA responsable de supervisar la implementación de las herramientas de IA, compuesto por una representación diversa de la organización, como miembros de los departamentos legal, recursos humanos, privacidad, comunicaciones e IT.
  2. Implementar políticas y procedimientos relacionados con la IA.
  3. Realizar capacitaciones sobre las herramientas de IA y el sesgo algorítmico, permitiendo su uso solo a empleados que hayan completado la capacitación.
  4. Evaluar minuciosamente a los proveedores y herramientas de IA.
  5. Asegurar disposiciones contractuales adecuadas de los proveedores de IA que incluyan el cumplimiento de todas las leyes aplicables, y la obligación de proporcionar información razonablemente solicitada por el empleador sobre los algoritmos.
  6. Abordar rápidamente cualquier problema identificado en las auditorías o pruebas.
  7. Revisar cualquier póliza de seguro de responsabilidad laboral o cualquier otra póliza de seguro aplicable para verificar la disponibilidad de cobertura.
  8. Asegurar que siempre haya un elemento humano en cualquier toma de decisiones que involucre una herramienta de IA.

Este enfoque proactivo no solo protege a los empleadores de posibles responsabilidades, sino que también fomenta un entorno laboral equitativo y justo, alineándose con los principios de la Ley de Nueva Jersey contra la Discriminación.

More Insights

Riesgos de IA en el cumplimiento normativo

El rápido crecimiento de la inteligencia artificial (IA), especialmente la IA generativa y los chatbots, presenta a las empresas una gran cantidad de oportunidades para mejorar sus operaciones. Sin...

Literacia en IA: Claves para Implementar tu Programa

La obligación de alfabetización en IA del Acta de IA de la UE se aplica a cualquier persona que trabaje con IA y tenga alguna conexión con la UE. Esto incluye a proveedores y usuarios de sistemas de...

Cruzando Fronteras Éticas en la IA

A medida que la inteligencia artificial (IA) permea los procesos de toma de decisiones en diversas industrias, los marcos de gobernanza ética robustos son fundamentales. La implementación de...

Preparación de Croacia para la Ley de IA: Riesgos y Derechos Humanos

Recientemente, Politiscope organizó un evento en Croacia para discutir el impacto de la inteligencia artificial (IA) en los derechos humanos y concienciar sobre los daños relacionados con la IA. Se...

La Persona Jurídica de la Inteligencia Artificial: ¿Un Futuro Inminente?

La inteligencia artificial ya no es emergente; está arraigada y se está integrando rápidamente en los sistemas legales. A medida que los sistemas autónomos comienzan a comportarse como actores...

La importancia de la procedencia de datos en la gobernanza de la IA para los CISO

La adopción de la inteligencia artificial en las empresas ha sido silenciosa y gradual, pero plantea preocupaciones sobre la seguridad y el cumplimiento. La falta de trazabilidad de los datos se ha...

Equilibrio en la Gobernanza de la IA en Filipinas

Una legisladora en Filipinas, la senadora Grace Poe, aboga por un enfoque cauteloso y consultivo para regular la inteligencia artificial (IA), enfatizando la necesidad de políticas que promuevan el...

China y el Futuro de la Gobernanza de IA a Través del Código Abierto

China está avanzando rápidamente en la inteligencia artificial (IA) mediante una fuerte colaboración de código abierto, lo que le permite construir y desplegar modelos fundamentales a gran escala...

Gobernanza Efectiva de la IA en Nueve Pasos

A medida que las organizaciones adoptan el potencial transformador de la inteligencia artificial (IA), se vuelve cada vez más claro que no se puede escalar la IA de manera segura sin una gobernanza...