Orientações sobre o Uso de IA na Contratação em Nova Jersey
No dia 9 de janeiro de 2025, o Procurador Geral de Nova Jersey e a Divisão de Direitos Civis (DCR) lançaram uma Iniciativa de Direitos Civis e Tecnologia para abordar os riscos de discriminação e assédio baseado em viés decorrentes do uso de inteligência artificial (IA) e outras tecnologias avançadas.
Visão Geral
A DCR emitiu uma orientação sobre como a Lei Contra Discriminação de Nova Jersey se aplica à discriminação resultante do uso de IA. Essa orientação é especialmente relevante para empregadores que utilizam IA para ajudar a filtrar candidatos e avaliar o desempenho dos funcionários.
Discriminação Algorítmica
A orientação esclarece que a Lei Contra Discriminação de Nova Jersey se aplica à discriminação algorítmica, ou seja, à discriminação resultante do uso de ferramentas de decisão automatizadas. Mesmo que o empregador não tenha desenvolvido a ferramenta de IA, ele pode ser responsabilizado pela discriminação resultante do uso dessa ferramenta.
Discriminação por Tratamento Desigual e Impacto Desigual
A orientação fornece exemplos de discriminação algorítmica. Ferramentas de IA podem se engajar em discriminação por tratamento desigual se forem projetadas ou usadas para tratar membros de uma classe protegida de maneira diferente. Por exemplo, um empregador poderia ser responsabilizado se usar IA apenas para avaliar candidatos negros, mas não candidatos de outras raças.
Além disso, ferramentas de IA podem incorrer em discriminação por impacto desigual se seus critérios, que à primeira vista não são discriminatórios, tiverem um efeito negativo desproporcional sobre membros de uma classe protegida. Um exemplo é uma empresa que utiliza IA para avaliar propostas de contrato que acaba excluindo desproporcionalmente propostas de empresas de propriedade de mulheres.
Acomodações Razoáveis
A orientação também adverte que o uso de ferramentas de IA pode violar a Lei se impedir a prestação de acomodações razoáveis. Por exemplo, ao usar IA na contratação, a ferramenta pode excluir desproporcionalmente candidatos que poderiam desempenhar o trabalho com uma acomodação razoável.
Responsabilidade
Um aspecto notável da orientação é a sua visão ampla sobre quem pode ser responsabilizado pela discriminação algorítmica. Sob a Lei, os empregadores não podem transferir a responsabilidade para seus fornecedores de IA ou desenvolvedores externos, mesmo que não compreendam como a ferramenta funciona.
Melhores Práticas
Para reduzir o risco de responsabilidade sob a Lei, os empregadores devem adotar algumas etapas, incluindo:
- Criar um grupo de IA responsável por supervisionar a implementação das ferramentas de IA, composto por membros de diversas áreas da organização, como jurídico, recursos humanos, privacidade, comunicações e TI.
- Implementar políticas e procedimentos relacionados à IA.
- Realizar treinamentos sobre as ferramentas de IA e viés algorítmico, permitindo que apenas funcionários treinados utilizem as ferramentas.
- Realizar uma avaliação completa de fornecedores e ferramentas de IA.
- Obter disposições contratuais apropriadas dos fornecedores de IA que garantam a conformidade com todas as leis aplicáveis.
- Resolver rapidamente quaisquer problemas identificados nas auditorias ou testes.
- Rever as apólices de seguro de responsabilidade trabalhista para verificar a disponibilidade de cobertura.
- Assegurar que ainda haja um elemento humano em qualquer decisão que envolva uma ferramenta de IA.
Os advogados da área de Trabalho, Emprego e Segurança no Local de Trabalho estão preparados para oferecer orientação e assistência sobre desenvolvimentos em IA e suas implicações legais.