Diretrizes do Procurador Geral de Nova Jersey sobre o Uso de IA na Contratação

Orientações sobre o Uso de IA na Contratação em Nova Jersey

No dia 9 de janeiro de 2025, o Procurador Geral de Nova Jersey e a Divisão de Direitos Civis (DCR) lançaram uma Iniciativa de Direitos Civis e Tecnologia para abordar os riscos de discriminação e assédio baseado em viés decorrentes do uso de inteligência artificial (IA) e outras tecnologias avançadas.

Visão Geral

A DCR emitiu uma orientação sobre como a Lei Contra Discriminação de Nova Jersey se aplica à discriminação resultante do uso de IA. Essa orientação é especialmente relevante para empregadores que utilizam IA para ajudar a filtrar candidatos e avaliar o desempenho dos funcionários.

Discriminação Algorítmica

A orientação esclarece que a Lei Contra Discriminação de Nova Jersey se aplica à discriminação algorítmica, ou seja, à discriminação resultante do uso de ferramentas de decisão automatizadas. Mesmo que o empregador não tenha desenvolvido a ferramenta de IA, ele pode ser responsabilizado pela discriminação resultante do uso dessa ferramenta.

Discriminação por Tratamento Desigual e Impacto Desigual

A orientação fornece exemplos de discriminação algorítmica. Ferramentas de IA podem se engajar em discriminação por tratamento desigual se forem projetadas ou usadas para tratar membros de uma classe protegida de maneira diferente. Por exemplo, um empregador poderia ser responsabilizado se usar IA apenas para avaliar candidatos negros, mas não candidatos de outras raças.

Além disso, ferramentas de IA podem incorrer em discriminação por impacto desigual se seus critérios, que à primeira vista não são discriminatórios, tiverem um efeito negativo desproporcional sobre membros de uma classe protegida. Um exemplo é uma empresa que utiliza IA para avaliar propostas de contrato que acaba excluindo desproporcionalmente propostas de empresas de propriedade de mulheres.

Acomodações Razoáveis

A orientação também adverte que o uso de ferramentas de IA pode violar a Lei se impedir a prestação de acomodações razoáveis. Por exemplo, ao usar IA na contratação, a ferramenta pode excluir desproporcionalmente candidatos que poderiam desempenhar o trabalho com uma acomodação razoável.

Responsabilidade

Um aspecto notável da orientação é a sua visão ampla sobre quem pode ser responsabilizado pela discriminação algorítmica. Sob a Lei, os empregadores não podem transferir a responsabilidade para seus fornecedores de IA ou desenvolvedores externos, mesmo que não compreendam como a ferramenta funciona.

Melhores Práticas

Para reduzir o risco de responsabilidade sob a Lei, os empregadores devem adotar algumas etapas, incluindo:

  1. Criar um grupo de IA responsável por supervisionar a implementação das ferramentas de IA, composto por membros de diversas áreas da organização, como jurídico, recursos humanos, privacidade, comunicações e TI.
  2. Implementar políticas e procedimentos relacionados à IA.
  3. Realizar treinamentos sobre as ferramentas de IA e viés algorítmico, permitindo que apenas funcionários treinados utilizem as ferramentas.
  4. Realizar uma avaliação completa de fornecedores e ferramentas de IA.
  5. Obter disposições contratuais apropriadas dos fornecedores de IA que garantam a conformidade com todas as leis aplicáveis.
  6. Resolver rapidamente quaisquer problemas identificados nas auditorias ou testes.
  7. Rever as apólices de seguro de responsabilidade trabalhista para verificar a disponibilidade de cobertura.
  8. Assegurar que ainda haja um elemento humano em qualquer decisão que envolva uma ferramenta de IA.

Os advogados da área de Trabalho, Emprego e Segurança no Local de Trabalho estão preparados para oferecer orientação e assistência sobre desenvolvimentos em IA e suas implicações legais.

More Insights

AI e Cibersegurança: Desafios da Responsabilidade

À medida que as organizações adotam a inteligência artificial (IA) para impulsionar a inovação e transformar operações, devem também lidar com a realidade de que a IA está rapidamente moldando o...

Abordagem Inteligente para a Governança da IA

O Sr. Sak afirma que a legislação iminente visa proteger os usuários de riscos potenciais da IA e remover barreiras legais que as leis existentes não conseguem abordar. A Tailândia elaborou princípios...

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...

Governança Ética e Inclusiva da IA na Indonésia

O Ministério da Comunicação e Digital da Indonésia reafirmou seu compromisso em incorporar princípios éticos e inclusão em suas políticas de inteligência artificial (IA). O vice-ministro Nezar Patria...

Texas Implementa a Lei de Governança Responsável de IA

Em 22 de junho de 2025, o governador Abbott assinou a Lei de Governança de Inteligência Artificial Responsável do Texas (TRAIGA), tornando o Texas o terceiro estado dos EUA a adotar uma legislação...