Quais Regras Governam o Chefe Algorítmico? Leis Estaduais de Emprego em IA, Ameaças de Preempção Federal e a Onda de Litígios que Está por Vir
Várias leis estaduais de emprego em IA — em Illinois, Texas e Colorado — entraram em vigor ou entrarão em vigor este ano, impondo auditorias de viés, requisitos de notificação, direitos de apelação e avaliações de impacto sobre os empregadores que utilizam IA em decisões de recursos humanos. Ao mesmo tempo, a Ordem Executiva 14365 da Casa Branca, emitida em dezembro de 2025, direcionou um novo Grupo de Trabalho sobre Litígios de IA federal para desafiar leis estaduais de IA que sejam consideradas “onerosas” e inconsistentes com uma estrutura de política nacional de IA minimamente onerosa. O resultado é um curso de colisão constitucional que moldará diretamente como os empregadores projetam e implementam ferramentas de contratação algorítmica.
O Novo Patchwork: Três Estados, Três Abordagens
A estrutura emergente em nível estadual que governa decisões de emprego em IA é tudo menos uniforme.
A Lei de Inteligência Artificial do Colorado (SB 24-205) cria deveres tanto para “desenvolvedores” quanto para “implantadores” de sistemas de IA de alto risco usados para decisões de emprego. Com a implementação adiada para 30 de junho de 2026, a lei exige programas de gestão de riscos, avaliações de impacto anuais, notificação aos trabalhadores para decisões de emprego consequentes e notificação ao procurador-geral dentro de 90 dias após a descoberta de discriminação algorítmica.
O HB 3773 de Illinois altera a Lei de Direitos Humanos de Illinois, com efeito em 1º de janeiro de 2026, para abranger explicitamente a discriminação mediada por IA. Os empregadores não podem usar IA que tenha “o efeito” de submeter empregados ou candidatos à discriminação ao longo de todo o ciclo de emprego — desde o recrutamento até a demissão.
A Lei de Governança Responsável de Inteligência Artificial do Texas (TRAIGA), também efetiva em 1º de janeiro de 2026, adota a posição mais restrita. Proíbe sistemas de IA desenvolvidos ou implantados com a intenção de discriminar ilegalmente e esclarece que o impacto desigual por si só não estabelece uma violação. A aplicação cabe exclusivamente ao Procurador-Geral do Texas, sem direito de ação privada e com um período de 60 dias para correção.
O espectro é impressionante: o Colorado exige uma infraestrutura de governança proativa, Illinois codifica um padrão de impacto desigual, e o Texas limita a responsabilidade à discriminação intencional. E esses são apenas os atos principais. As emendas ao FEHA da Califórnia e regimes semelhantes em dezenas de estados acrescentam ainda mais complexidade.
A Contramedida Federal: Ordem Executiva 14365 e o Grupo de Trabalho sobre Litígios de IA
Dentro desse patchwork regulatório, a Casa Branca lançou um desafio constitucional. Como mencionado, a Ordem Executiva 14365 direciona o Procurador-Geral a estabelecer um Grupo de Trabalho sobre Litígios de IA com a “única responsabilidade” de desafiar leis estaduais de IA consideradas inconsistentes com a política federal — incluindo em bases de preempção e Cláusula do Comércio Dormente.
A ordem também exige que o Secretário de Comércio publique, até março de 2026, uma avaliação identificando as leis estaduais de IA adequadas para desafio federal.
As teorias legais para a próxima onda de processos entre federal e estadual incluem: preempção de obstáculo e conflito, onde as leis estaduais obstruem os objetivos federais de competitividade, desafios da Cláusula do Comércio Dormente a leis com alcance extraterritorial e argumentos da Primeira Emenda que enquadram os mandatos de divulgação como discurso forçado. Mas opositores apresentam defesas igualmente persuasivas da governança estadual de IA.
Importante notar que a lei federal de discriminação no emprego já rege as ferramentas de contratação em IA. A orientação da EEOC aborda a discriminação algorítmica sob o Título VII, a ADA e a ADEA. O foco da agência em impacto desigual, acomodações razoáveis para candidatos com deficiência e transparência em decisões adversas estabelece uma base de conformidade federal que se aplica independentemente da preempção estadual. O conflito federal-estadual diz respeito a requisitos adicionais específicos do estado e não à necessidade de que as ferramentas de contratação em IA cumpram a lei federal de direitos civis.
Pego no Fogo Cruzado: O Que os Empregadores Devem Fazer Agora
Essa colisão federal-estadual cria um verdadeiro dilema de conformidade. Os empregadores que investem em uma infraestrutura de governança ao estilo Colorado podem descobrir que essas obrigações foram suspensas ou restringidas por litígios federais. Mas os empregadores que atrasam a conformidade enfrentam a aplicação do procurador-geral estadual e ações de discriminação privada que podem usar esses estatutos como padrões de cuidado de fato — mesmo onde o estatuto de IA em si não possui um direito de ação privada.
O caminho prudente é construir uma estrutura de conformidade de “maior denominador comum”. Isso inclui estabelecer uma base central de governança em IA cobrindo testes independentes de viés, documentação de explicabilidade e revisão humana para decisões adversas. Deve ser projetada para atender aos padrões de Colorado e Illinois, adaptada para regimes mais restritos como o Texas e refletindo avaliações de impacto e relatórios específicos do estado.
Igualmente crítico: revisar seus contratos com fornecedores de IA agora. Os fornecedores podem enfrentar obrigações diretas como “desenvolvedores” sob a estrutura do Colorado, e seus contratos devem alocar responsabilidades para suporte a testes de viés, acesso a dados para conformidade e relatórios de incidentes.
Por fim, monitore de perto as prioridades do Grupo de Trabalho do DOJ e a avaliação do Comércio em março de 2026. Construa planos de cenários para responder caso obrigações específicas do estado sejam invalidadas enquanto outras permanecem em vigor. As questões constitucionais são fascinantes; as implicações práticas para seu próximo ciclo de contratação são imediatas.
Principais Conclusões:
- A conformidade não pode esperar por clareza constitucional. As leis estaduais de emprego em IA são aplicáveis agora, e os empregadores que atrasam investimentos em governança estão expostos à aplicação do procurador-geral e litígios por discriminação, independentemente de desafios federais pendentes.
- O patchwork exige uma abordagem de “maior denominador comum”. Construir para o padrão mais exigente — e depois adaptar para baixo — é mais eficiente e defensável do que manter silos de conformidade por jurisdição. Documente sua lógica de conformidade contemporaneamente; se tribunais federais invalidarem requisitos específicos do estado, você precisará de registros que mostrem que sua governança em IA era razoável sob qualquer estrutura legal que prevalecer no final.
- Os contratos com fornecedores são sua primeira linha de defesa. Fornecedores de IA e tecnologia de recursos humanos têm obrigações diretas sob leis como a CAIA do Colorado, e seus acordos devem alocar responsabilidades para testes, acesso a dados e relatórios de incidentes de forma adequada.