Esforços Estaduais para Regular a Contratação de IA Após Reação de Trump

Esforços Estaduais para Regular a Contratação de IA Após Resistência de Trump

Legisladores estaduais estão elaborando estratégias para conseguir a aprovação de leis que regulamentem o uso da inteligência artificial (IA) nas decisões de emprego, apesar da oposição da indústria de tecnologia e da administração Trump.

Medidas Propostas

Legisladores de estados como Nova York e Texas têm proposto medidas que variam desde a exigência de que os empregadores mitiguem possíveis preconceitos causados por ferramentas de contratação baseadas em IA até a obrigatoriedade de divulgação e possibilidade de apelação em decisões geradas por IA para candidatos a emprego.

Apesar da resistência de uma indústria de tecnologia bem financiada, que tem deixado algumas legislações de lado, e das novas ameaças do governo federal e da Casa Branca de anular as leis estaduais de IA, o movimento para regulamentar continua forte, mesmo que as propostas sejam reduzidas em escopo, segundo legisladores de vários estados.

Desafios Legislativos

A delegada estadual da Virgínia, Michelle Maldonado (D), cuja proposta de lei sobre IA foi vetada este ano pelo governador Glenn Youngkin (R), afirmou: “Não estou intimidada, mas também precisamos ser práticas.”

O presidente Donald Trump lançou um Plano de Ação de IA em julho que incluía ameaças de corte de financiamento federal e possível preempção pela Comissão Federal de Comunicações para as leis estaduais de IA que a administração considerar excessivamente restritivas.

Foco na Transparência

O estado do Colorado aprovou a lei de preconceito em IA mais abrangente do país até o momento, mas os legisladores votaram em agosto para adiá sua implementação e tentar revisá-la antes que entre em vigor.

O senador de Connecticut, James Maroney (D), mencionou que até mesmo legisladores de estados democratas que tentaram imitar a medida do Colorado podem estar prontos para restringir seu foco em 2026, seja por meio de restrições específicas da indústria ou um enfoque apenas na transparência.

Essa abordagem exigiria que os empregadores divulgassem aos candidatos e funcionários quando e como estão usando ferramentas de IA, mas não incluiria auditorias de preconceito obrigatórias ou planos detalhados de gerenciamento de riscos.

Exemplos de Legislações Estaduais

Uma lei de Illinois que entrará em vigor em 1º de janeiro de 2026 exige que os empregadores notifiquem os trabalhadores quando utilizam IA para decisões de emprego, mas não oferece detalhes sobre o que essa notificação deve incluir.

Em contraste, os legisladores do Colorado consideraram em agosto um Ato de Transparência em IA que teria exigido que as empresas notificassem os indivíduos sobre até 20 fatores que as ferramentas de IA consideraram antes de rejeitá-los, além da oportunidade de corrigir dados imprecisos.

Resistência da Indústria de Tecnologia

A indústria de tecnologia se opôs à proposta do Colorado, incluindo a linguagem da medida que buscava impor responsabilidade conjunta para reivindicações de discriminação sobre os desenvolvedores de tecnologia de IA, juntamente com as empresas que usam as ferramentas.

David Edmonson, vice-presidente sênior de política estadual da associação da indústria TechNet, comentou: “Estamos encorajados ao ver mais legisladores considerando abordagens focadas na transparência. Embora os detalhes importem, a transparência pode frequentemente ser um caminho mais viável do que algumas das exigências mais onerosas que foram propostas.”

Perspectivas Futuras

Enquanto isso, a representante do Colorado, Brianna Titone (D), co-autora da lei adiada para junho de 2026, ainda vê esperança em legislações que forcem os desenvolvedores de tecnologia a compartilhar a responsabilidade por reivindicações de discriminação, em vez de atribuí-la apenas às empresas que utilizam as ferramentas para aumentar a eficiência da contratação.

Com a ausência de ação de Washington, os requisitos estaduais divergentes à medida que evoluem podem dificultar a conformidade. Alguns estados estão pressionando os empregadores a tomar medidas como testes de preconceito, manutenção de documentação e outros controles de sistema.

De acordo com Lauren Hicks, uma acionista da Ogletree Deakins, “os empregadores agora têm a obrigação de realmente se aprofundar e desenvolver um entendimento profundo do software que estão usando. Isso é extremamente crítico agora, para que possam trabalhar para atender a essas obrigações de conformidade que vão variar de estado para estado.”

Ameaça de Preempção

Como o Congresso pode abordar a preempção em futuras legislações sobre inteligência artificial ainda é incerto, criando riscos para os estados que avançam em proteções de IA. O plano de Trump instrui as agências federais a negar financiamento relacionado à IA aos estados cujas leis minem o propósito dos fundos, como promover o crescimento da indústria de IA.

Porém, o plano não esclarece quais tipos de leis estaduais estão propensas a escrutínio federal, conforme observou Mackenzie Arnold, diretora de política dos EUA no Instituto de Lei e IA.

“Condicionar subsídios federais ao ‘clima regulatório’ da IA de um estado é inerentemente maleável e, portanto, difícil de prever,” disse Arnold. “Os estados precisam saber quais leis estão dentro e fora dos limites.”

Para algumas leis de emprego, como a Lei de Normas Trabalhistas Justas, as regras federais atuam como um piso, permitindo que os estados estabeleçam padrões mais altos. No entanto, em outras áreas, a Suprema Corte dos EUA reconheceu a primazia da lei federal, preempando estatutos estaduais que regulam condutas cobertas pela Lei Nacional de Relações Trabalhistas.

Maldonado, que planeja reintroduzir sua legislação na próxima sessão, não vê risco em agir enquanto o Congresso decide como as leis federais e estaduais sobre IA vão se cruzar. “Devemos colocar algo em prática, e se for preemptado, então tudo bem,” disse ela, “mas mais provavelmente, pode não ser.”

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...