As Regras de Contratação de IA da Califórnia Estão em Vigor — e Novas Ações Judiciais Ampliam o Risco para os Empregadores
A inteligência artificial e os sistemas de decisão automatizados (“ADS”) tornaram-se características comuns do recrutamento e da contratação modernos. Os reguladores e tribunais da Califórnia têm se concentrado cada vez mais em como os empregadores usam ferramentas de IA nas decisões de emprego — e nos riscos legais que isso acarreta.
As Regulamentações de ADS da Califórnia Estão em Vigor
As regulamentações de ADS da Califórnia, sob a Lei de Emprego e Habitação Justa (“FEHA”), entraram em vigor em 1º de outubro de 2025. Essas regulamentações não proíbem o uso de IA ou ADS, mas reforçam vários princípios centrais que os empregadores devem já estar incorporando em seus programas de conformidade:
- Os empregadores continuam responsáveis pelos resultados discriminatórios resultantes de decisões assistidas por IA, mesmo quando as ferramentas são desenvolvidas ou administradas por terceiros.
- As decisões baseadas em ADS devem ser relevantes para o trabalho e consistentes com a necessidade comercial, especialmente se resultarem em impacto desproporcional em grupos protegidos.
- A documentação, testes e retenção de registros são cruciais — especialmente quando os empregadores podem precisar explicar como as ferramentas automatizadas influenciaram as decisões de emprego.
- Os vendedores podem ser tratados como agentes sob a FEHA, aumentando a importância da diligência na contratação de fornecedores e da governança contratual.
Uma Nova Teoria de Responsabilidade para Ferramentas de Contratação de IA
Uma ação coletiva recentemente apresentada contra uma plataforma de IA destaca uma área diferente — e potencialmente complementar — de exposição para empregadores que utilizam ferramentas de contratação de IA. A ação alega que as pontuações e classificações geradas pela IA funcionam como “relatórios de consumidores” sob a Lei de Relato Justo de Crédito (“FCRA”) e a Lei de Agências de Relato de Consumidor Investigativas da Califórnia (“ICRAA”).
Os autores alegam que os candidatos não foram informados sobre a criação desses relatórios, não autorizaram a criação e não tiveram acesso ou oportunidade de contestar as informações antes que decisões adversas fossem tomadas.
Implicações para os Empregadores em 2026
As regulamentações de ADS da Califórnia, a litigação e a nova ação judicial ilustram que o risco relacionado à IA agora abrange múltiplas estruturas legais, incluindo:
- Leis anti-discriminação.
- Normas de relato de consumidores focadas em aviso, autorização e direitos de contestação.
- Expectativas mais amplas de transparência e documentação ligadas à tomada de decisões automatizadas.
Os empregadores devem considerar:
- Inventariar as ferramentas de IA e ADS usadas em qualquer fase do processo de contratação.
- Compreender quais dados essas ferramentas coletam, avaliam ou inferem.
- Avaliar se as saídas de IA poderiam ser caracterizadas como relatórios ou pontuações que influenciam materialmente as decisões de emprego.
- Revisar acordos com fornecedores, divulgações e fluxos de trabalho internos para garantir conformidade com as obrigações anti-discriminação e processuais.
Conclusão
As ferramentas de contratação habilitadas por IA permanecem permitidas e valiosas, mas o cenário legal que rege seu uso continua a evoluir. As regulamentações de ADS da Califórnia confirmam que a IA está claramente dentro do escopo da lei de discriminação no emprego. Empregadores que tratam a governança da IA como uma questão de conformidade holística estarão melhor posicionados para gerenciar esses riscos em 2026 e além.