Processo Judicial Inovador Avalia Conformidade das Ferramentas de Contratação com a FCRA

Ação Judicial Inovadora Testa se Ferramentas de Contratação com IA Disparam Conformidade com FCRA

De acordo com a reclamação, uma empresa gera relatórios sobre candidatos usando “ferramentas impulsionadas por IA que montam e avaliam informações sobre potenciais empregados” e avaliam sua “adequação” para um emprego com base em fatores como “histórico de trabalho, trajetória de carreira projetada, ajuste cultural e outras características pessoais”. A empresa, então, supostamente “vende esses relatórios para empregadores usarem na tomada de decisões de contratação”.

Para gerar esses relatórios, a reclamação alega que informações são alimentadas no Modelo de Linguagem Grande (LLM) da empresa, que incorpora mais de 1,5 bilhões de pontos de dados de cargos, habilidades e “os perfis de mais de 1 bilhão de pessoas trabalhando em todos os empregos, profissões e indústrias”.

Ferramentas de Avaliação

A reclamação afirma que “as Ferramentas de Avaliação da empresa, então, avaliam e classificam os candidatos a emprego usando os dados coletados durante o processo de candidatura, dados internos do empregador, dados externos e o LLM proprietário”.

Especificamente, a reclamação alega que a avaliação inclui não apenas o perfil e o currículo do candidato, mas também “dados suplementares do candidato coletados de fontes públicas sobre a história profissional do candidato (como blogs, publicações, conferências, histórico de candidaturas a empregos, etc.)”, dados de outros empregados comparáveis, previsões sobre o candidato e “dados usados para treinar a IA da empresa”.

Além disso, a reclamação alega que, uma vez que um candidato se inscreve para um emprego com um empregador que usa a ferramenta, a empresa retém os dados desse candidato e os utiliza para avaliar outros candidatos para o mesmo emprego, posições não relacionadas, ou “para aquele mesmo candidato em outras posições no futuro”.

Proteções do FCRA

O FCRA (Fair Credit Reporting Act) e equivalentes estaduais, como o ICRAA, regulam como os empregadores obtêm e usam “relatórios de consumidores” (ou verificações de antecedentes) para “fins de emprego”, incluindo contratação, promoção ou retenção. O FCRA exige que os empregadores forneçam divulgações escritas separadas aos empregados e candidatos, e obtenham autorização por escrito antes de obter um relatório. Para tomar uma “ação adversa”, como rejeitar um candidato com base nas informações contidas em um relatório de consumidor, o FCRA impõe requisitos adicionais de notificação pré-adversa e de ação adversa e fornece uma oportunidade para o candidato corrigir informações imprecisas.

O FCRA também regula “agências de relatórios de consumidores”, que são definidas como entidades que montam ou avaliam informações sobre consumidores para o propósito de fornecer relatórios de consumidores relacionados ao “caráter, reputação geral, características pessoais ou modo de vida” do consumidor — termos amplos que abrangem muitos atributos de candidatos ou empregados — para terceiros. O FCRA também fornece aos consumidores o direito de acessar, contestar e corrigir informações em seus relatórios de consumidores.

Implicações para Empregadores

Embora ferramentas de IA já tenham enfrentado processos judiciais e regulamentações alegando que podem levar a discriminação ilegal na contratação, a nova ação judicial contra a empresa levanta alegações e questões inovadoras sobre se essas ferramentas podem implicar o FCRA e outras leis de verificações de antecedentes — um quadro legal muito diferente das estatísticas de discriminação no emprego.

Próximos Passos

A ação judicial pode ser a primeira de um novo tipo de litígios coletivos visando ferramentas de emprego que utilizam IA ou processos de tomada de decisão automatizados ou algorítmicos que recuperam ou utilizam dados específicos de candidatos ou empregados. No entanto, o caso está em seus estágios iniciais, e não está claro se as alegações sobreviverão à litigação.

Empregadores podem querer monitorar este caso e casos semelhantes à medida que se desenvolvem. Enquanto isso, também podem querer revisar seu uso de ferramentas impulsionadas por IA para recrutamento e contratação. Se tais ferramentas forem utilizadas, os empregadores podem ainda querer avaliar como essas ferramentas funcionam, incluindo quais dados específicos são coletados e utilizados na avaliação de candidatos e empregados.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...