Guía sobre el Uso de IA en Contratación y Derechos Civiles en Nueva Jersey

La Guía sobre el Uso de IA en la Contratación de Nueva Jersey

El 9 de enero de 2025, el Fiscal General de Nueva Jersey, Matthew J. Platkin, y la División de Derechos Civiles de Nueva Jersey (DCR) anunciaron el lanzamiento de una Iniciativa de Derechos Civiles y Tecnología. Esta iniciativa busca abordar los riesgos de discriminación y acoso basado en sesgos que pueden surgir del uso de la inteligencia artificial (IA) y otras tecnologías avanzadas. Como parte de esta iniciativa, se emitió una guía que explica cómo la Ley de Nueva Jersey contra la Discriminación (LAD) se aplica a la discriminación resultante del uso de la IA.

Discriminación Algorítmica

La guía aclara que la LAD se aplica a la discriminación algorítmica, lo que significa que cualquier discriminación que resulte del uso de herramientas de decisión automatizadas por parte de un empleador es tratada de la misma manera que cualquier otra conducta discriminatoria. De hecho, incluso si el empleador no desarrolló la herramienta de IA y no es consciente de la discriminación algorítmica que esta puede perpetuar, aún puede ser responsable bajo la LAD. Por lo tanto, los empleadores deben considerar cuidadosamente cómo utilizan la IA para evitar posibles responsabilidades por discriminación algorítmica.

Discriminación por Tratamiento Desigual y Desigualdad de Impacto

La guía proporciona varios ejemplos de discriminación algorítmica. Se menciona que las herramientas de IA pueden incurrir en discriminación por tratamiento desigual si están diseñadas o se utilizan para tratar a miembros de una clase protegida de manera diferente. Por ejemplo, un empleador podría ser responsable de discriminación por tratamiento desigual si utiliza IA únicamente para evaluar a miembros de un grupo específico, como seleccionar solo a postulantes negros y no a otros grupos raciales.

Además, incluso si una herramienta de IA no se utiliza de manera selectiva y no considera directamente una característica protegida, puede hacer recomendaciones basadas en un proxi cercano a una característica protegida, como la raza o el sexo.

Las herramientas de IA también pueden incurrir en discriminación por impacto desigual si sus criterios, que a primera vista no son discriminatorios, tienen un efecto negativo desproporcionado sobre miembros de una clase protegida. Por ejemplo, una empresa que utiliza IA para evaluar ofertas de contratos podría estar excluyendo desproporcionadamente ofertas de negocios propiedad de mujeres.

Ajustes Razonables

La guía también advierte que el uso de herramientas de IA por parte de un empleador puede violar la LAD si impide o dificulta la provisión de ajustes razonables. Por ejemplo, al usarse en la contratación, la IA puede excluir desproporcionadamente a postulantes que podrían desempeñar el trabajo con un ajuste razonable. Asimismo, si un empleador utiliza IA para rastrear la productividad y los tiempos de descanso de sus empleados, puede señalar desproporcionadamente para disciplina a aquellos a quienes se les permite más tiempo de descanso para acomodar una discapacidad.

Responsabilidad

Es importante destacar que la guía tiene una visión amplia de quién puede ser considerado responsable por la discriminación algorítmica. Al igual que con otras guías y leyes relacionadas con la IA, bajo la LAD, los empleadores no pueden trasladar la responsabilidad a sus proveedores de IA o desarrolladores externos, incluso si no conocen el funcionamiento interno de la herramienta o no comprenden cómo opera.

Mejores Prácticas

Para disminuir el riesgo de responsabilidad bajo la LAD, los empleadores deben tomar ciertas medidas para asegurarse de que las herramientas de IA que utilizan para tomar o informar decisiones laborales no estén incurriendo en sesgo algorítmico o violando de otro modo la LAD. Estas medidas incluyen:

  1. Crear un grupo de IA responsable de supervisar la implementación de las herramientas de IA, compuesto por una representación diversa de la organización, como miembros de los departamentos legal, recursos humanos, privacidad, comunicaciones e IT.
  2. Implementar políticas y procedimientos relacionados con la IA.
  3. Realizar capacitaciones sobre las herramientas de IA y el sesgo algorítmico, permitiendo su uso solo a empleados que hayan completado la capacitación.
  4. Evaluar minuciosamente a los proveedores y herramientas de IA.
  5. Asegurar disposiciones contractuales adecuadas de los proveedores de IA que incluyan el cumplimiento de todas las leyes aplicables, y la obligación de proporcionar información razonablemente solicitada por el empleador sobre los algoritmos.
  6. Abordar rápidamente cualquier problema identificado en las auditorías o pruebas.
  7. Revisar cualquier póliza de seguro de responsabilidad laboral o cualquier otra póliza de seguro aplicable para verificar la disponibilidad de cobertura.
  8. Asegurar que siempre haya un elemento humano en cualquier toma de decisiones que involucre una herramienta de IA.

Este enfoque proactivo no solo protege a los empleadores de posibles responsabilidades, sino que también fomenta un entorno laboral equitativo y justo, alineándose con los principios de la Ley de Nueva Jersey contra la Discriminación.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...