Esforços Estaduais para Regular a Contratação de IA Após Resistência de Trump
Legisladores estaduais estão elaborando estratégias para conseguir a aprovação de leis que regulamentem o uso da inteligência artificial (IA) nas decisões de emprego, apesar da oposição da indústria de tecnologia e da administração Trump.
Medidas Propostas
Legisladores de estados como Nova York e Texas têm proposto medidas que variam desde a exigência de que os empregadores mitiguem possíveis preconceitos causados por ferramentas de contratação baseadas em IA até a obrigatoriedade de divulgação e possibilidade de apelação em decisões geradas por IA para candidatos a emprego.
Apesar da resistência de uma indústria de tecnologia bem financiada, que tem deixado algumas legislações de lado, e das novas ameaças do governo federal e da Casa Branca de anular as leis estaduais de IA, o movimento para regulamentar continua forte, mesmo que as propostas sejam reduzidas em escopo, segundo legisladores de vários estados.
Desafios Legislativos
A delegada estadual da Virgínia, Michelle Maldonado (D), cuja proposta de lei sobre IA foi vetada este ano pelo governador Glenn Youngkin (R), afirmou: “Não estou intimidada, mas também precisamos ser práticas.”
O presidente Donald Trump lançou um Plano de Ação de IA em julho que incluía ameaças de corte de financiamento federal e possível preempção pela Comissão Federal de Comunicações para as leis estaduais de IA que a administração considerar excessivamente restritivas.
Foco na Transparência
O estado do Colorado aprovou a lei de preconceito em IA mais abrangente do país até o momento, mas os legisladores votaram em agosto para adiá sua implementação e tentar revisá-la antes que entre em vigor.
O senador de Connecticut, James Maroney (D), mencionou que até mesmo legisladores de estados democratas que tentaram imitar a medida do Colorado podem estar prontos para restringir seu foco em 2026, seja por meio de restrições específicas da indústria ou um enfoque apenas na transparência.
Essa abordagem exigiria que os empregadores divulgassem aos candidatos e funcionários quando e como estão usando ferramentas de IA, mas não incluiria auditorias de preconceito obrigatórias ou planos detalhados de gerenciamento de riscos.
Exemplos de Legislações Estaduais
Uma lei de Illinois que entrará em vigor em 1º de janeiro de 2026 exige que os empregadores notifiquem os trabalhadores quando utilizam IA para decisões de emprego, mas não oferece detalhes sobre o que essa notificação deve incluir.
Em contraste, os legisladores do Colorado consideraram em agosto um Ato de Transparência em IA que teria exigido que as empresas notificassem os indivíduos sobre até 20 fatores que as ferramentas de IA consideraram antes de rejeitá-los, além da oportunidade de corrigir dados imprecisos.
Resistência da Indústria de Tecnologia
A indústria de tecnologia se opôs à proposta do Colorado, incluindo a linguagem da medida que buscava impor responsabilidade conjunta para reivindicações de discriminação sobre os desenvolvedores de tecnologia de IA, juntamente com as empresas que usam as ferramentas.
David Edmonson, vice-presidente sênior de política estadual da associação da indústria TechNet, comentou: “Estamos encorajados ao ver mais legisladores considerando abordagens focadas na transparência. Embora os detalhes importem, a transparência pode frequentemente ser um caminho mais viável do que algumas das exigências mais onerosas que foram propostas.”
Perspectivas Futuras
Enquanto isso, a representante do Colorado, Brianna Titone (D), co-autora da lei adiada para junho de 2026, ainda vê esperança em legislações que forcem os desenvolvedores de tecnologia a compartilhar a responsabilidade por reivindicações de discriminação, em vez de atribuí-la apenas às empresas que utilizam as ferramentas para aumentar a eficiência da contratação.
Com a ausência de ação de Washington, os requisitos estaduais divergentes à medida que evoluem podem dificultar a conformidade. Alguns estados estão pressionando os empregadores a tomar medidas como testes de preconceito, manutenção de documentação e outros controles de sistema.
De acordo com Lauren Hicks, uma acionista da Ogletree Deakins, “os empregadores agora têm a obrigação de realmente se aprofundar e desenvolver um entendimento profundo do software que estão usando. Isso é extremamente crítico agora, para que possam trabalhar para atender a essas obrigações de conformidade que vão variar de estado para estado.”
Ameaça de Preempção
Como o Congresso pode abordar a preempção em futuras legislações sobre inteligência artificial ainda é incerto, criando riscos para os estados que avançam em proteções de IA. O plano de Trump instrui as agências federais a negar financiamento relacionado à IA aos estados cujas leis minem o propósito dos fundos, como promover o crescimento da indústria de IA.
Porém, o plano não esclarece quais tipos de leis estaduais estão propensas a escrutínio federal, conforme observou Mackenzie Arnold, diretora de política dos EUA no Instituto de Lei e IA.
“Condicionar subsídios federais ao ‘clima regulatório’ da IA de um estado é inerentemente maleável e, portanto, difícil de prever,” disse Arnold. “Os estados precisam saber quais leis estão dentro e fora dos limites.”
Para algumas leis de emprego, como a Lei de Normas Trabalhistas Justas, as regras federais atuam como um piso, permitindo que os estados estabeleçam padrões mais altos. No entanto, em outras áreas, a Suprema Corte dos EUA reconheceu a primazia da lei federal, preempando estatutos estaduais que regulam condutas cobertas pela Lei Nacional de Relações Trabalhistas.
Maldonado, que planeja reintroduzir sua legislação na próxima sessão, não vê risco em agir enquanto o Congresso decide como as leis federais e estaduais sobre IA vão se cruzar. “Devemos colocar algo em prática, e se for preemptado, então tudo bem,” disse ela, “mas mais provavelmente, pode não ser.”