Diretrizes do Procurador Geral de Nova Jersey sobre o Uso de IA na Contratação

Orientações sobre o Uso de IA na Contratação em Nova Jersey

No dia 9 de janeiro de 2025, o Procurador Geral de Nova Jersey e a Divisão de Direitos Civis (DCR) lançaram uma Iniciativa de Direitos Civis e Tecnologia para abordar os riscos de discriminação e assédio baseado em viés decorrentes do uso de inteligência artificial (IA) e outras tecnologias avançadas.

Visão Geral

A DCR emitiu uma orientação sobre como a Lei Contra Discriminação de Nova Jersey se aplica à discriminação resultante do uso de IA. Essa orientação é especialmente relevante para empregadores que utilizam IA para ajudar a filtrar candidatos e avaliar o desempenho dos funcionários.

Discriminação Algorítmica

A orientação esclarece que a Lei Contra Discriminação de Nova Jersey se aplica à discriminação algorítmica, ou seja, à discriminação resultante do uso de ferramentas de decisão automatizadas. Mesmo que o empregador não tenha desenvolvido a ferramenta de IA, ele pode ser responsabilizado pela discriminação resultante do uso dessa ferramenta.

Discriminação por Tratamento Desigual e Impacto Desigual

A orientação fornece exemplos de discriminação algorítmica. Ferramentas de IA podem se engajar em discriminação por tratamento desigual se forem projetadas ou usadas para tratar membros de uma classe protegida de maneira diferente. Por exemplo, um empregador poderia ser responsabilizado se usar IA apenas para avaliar candidatos negros, mas não candidatos de outras raças.

Além disso, ferramentas de IA podem incorrer em discriminação por impacto desigual se seus critérios, que à primeira vista não são discriminatórios, tiverem um efeito negativo desproporcional sobre membros de uma classe protegida. Um exemplo é uma empresa que utiliza IA para avaliar propostas de contrato que acaba excluindo desproporcionalmente propostas de empresas de propriedade de mulheres.

Acomodações Razoáveis

A orientação também adverte que o uso de ferramentas de IA pode violar a Lei se impedir a prestação de acomodações razoáveis. Por exemplo, ao usar IA na contratação, a ferramenta pode excluir desproporcionalmente candidatos que poderiam desempenhar o trabalho com uma acomodação razoável.

Responsabilidade

Um aspecto notável da orientação é a sua visão ampla sobre quem pode ser responsabilizado pela discriminação algorítmica. Sob a Lei, os empregadores não podem transferir a responsabilidade para seus fornecedores de IA ou desenvolvedores externos, mesmo que não compreendam como a ferramenta funciona.

Melhores Práticas

Para reduzir o risco de responsabilidade sob a Lei, os empregadores devem adotar algumas etapas, incluindo:

  1. Criar um grupo de IA responsável por supervisionar a implementação das ferramentas de IA, composto por membros de diversas áreas da organização, como jurídico, recursos humanos, privacidade, comunicações e TI.
  2. Implementar políticas e procedimentos relacionados à IA.
  3. Realizar treinamentos sobre as ferramentas de IA e viés algorítmico, permitindo que apenas funcionários treinados utilizem as ferramentas.
  4. Realizar uma avaliação completa de fornecedores e ferramentas de IA.
  5. Obter disposições contratuais apropriadas dos fornecedores de IA que garantam a conformidade com todas as leis aplicáveis.
  6. Resolver rapidamente quaisquer problemas identificados nas auditorias ou testes.
  7. Rever as apólices de seguro de responsabilidade trabalhista para verificar a disponibilidade de cobertura.
  8. Assegurar que ainda haja um elemento humano em qualquer decisão que envolva uma ferramenta de IA.

Os advogados da área de Trabalho, Emprego e Segurança no Local de Trabalho estão preparados para oferecer orientação e assistência sobre desenvolvimentos em IA e suas implicações legais.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...