Legislação sobre o Uso de IA na Definição de Salários

Legisladores Estaduais Buscam Regular o Uso de IA pelos Empregadores em Decisões Salariais

Com os empregadores encontrando novas formas de utilizar ferramentas e softwares de inteligência artificial (“IA”) para apoiar as operações comerciais, os legisladores estaduais estão prestando atenção. Especificamente, os legisladores estaduais estão cada vez mais examinando o uso de IA e ferramentas de decisão automatizadas pelos empregadores para definir ou influenciar a compensação dos empregados, com o objetivo declarado de limitar os potenciais impactos discriminatórios decorrentes do uso de definição salarial algorítmica e aumentar a transparência para os empregados e candidatos em relação ao uso dessa tecnologia.

Atividade Legislativa Recente

Vários estados, incluindo Califórnia, Colorado, Geórgia e Illinois, introduziram projetos de lei em 2025 buscando estabelecer parâmetros para decisões salariais impulsionadas por IA. Legisladores de Nova York e Maryland continuaram a tendência em janeiro de 2026, apresentando projetos de lei com restrições semelhantes.

Embora essas propostas de lei estadual não sejam todas idênticas, compartilham características comuns. Primeiro, definem “sistemas de decisão automatizados” como sistemas, softwares ou processos — incluindo aqueles que dependem de técnicas de aprendizado de máquina ou IA — que são utilizados para auxiliar ou substituir a tomada de decisão humana. No contexto do emprego, essas definições abrangem ferramentas e sistemas de recursos humanos automatizados que usam regras predefinidas para processar dados por meio de algoritmos e auxiliar na execução de funções de recursos humanos.

Além disso, a maioria dessas propostas de lei estadual fornece diretrizes para condutas que não constituiriam o uso ilegal de definição salarial algorítmica. Essas exclusões incluem, por exemplo, quando os empregadores (1) oferecem salários individualizados com base em dados relacionados aos serviços que os trabalhadores realizam; (2) divulgam em linguagem clara seu uso de sistemas de decisão automatizados, incluindo os dados considerados pelos sistemas e como os sistemas consideram tais dados, para empregados e candidatos cuja compensação é influenciada ou determinada por esses métodos; e (3) desenvolvem e implementam procedimentos para garantir a precisão dos dados considerados pelos sistemas de decisão automatizados na definição de salários.

Riscos Legais Associados às Decisões Salariais Impulsionadas por IA

Os legisladores que defendem essas propostas de lei estadual enfatizaram que o uso não regulamentado de IA pelos empregadores em decisões salariais pode resultar em resultados compensatórios discriminatórios. De fato, as decisões salariais impulsionadas por IA dos empregadores podem estar cobertas e ser processáveis sob uma variedade de leis trabalhistas.

A natureza dos sistemas de decisão automatizados já cria riscos legais únicos para os empregadores, especialmente no contexto de confiar nesses sistemas para determinar a compensação dos empregados. Um desafio central que os empregadores enfrentam ao usar ferramentas impulsionadas por IA é a falta de transparência sobre como as ferramentas chegam a suas conclusões ou recomendações. Enquanto os tomadores de decisão humanos podem explicar o raciocínio que motiva as decisões salariais, é difícil — e em alguns casos pode ser impossível — discernir o raciocínio subjacente às decisões feitas por certas ferramentas de IA. Isso deixa os empregadores vulneráveis a desafios legais em relação às decisões salariais feitas por ferramentas ou softwares de IA.

Considerações para os Empregados

Por enquanto, os empregadores devem garantir a conformidade com as leis federais e estaduais aplicáveis que foram promulgadas ou que estão programadas para entrar em vigor em 2026. Isso inclui, no mínimo, identificar cada ferramenta de IA atualmente utilizada na tomada de decisões de emprego e avaliar se essas ferramentas estão sujeitas à regulamentação de quaisquer leis estaduais ou locais.

Os empregadores também devem estabelecer e implementar uma política abrangente de IA que delineie procedimentos internos para o uso de IA, forneça o aviso requerido aos empregados e candidatos sobre o uso de IA e exija supervisão humana sobre as recomendações impulsionadas por IA.

Olhando para o futuro, os empregadores devem monitorar ativamente os desenvolvimentos nas legislações e regulamentações federais, estaduais e locais destinadas a governar o uso de IA em decisões relacionadas à compensação dos empregados e outros termos de emprego. À medida que os estados se movem rapidamente para estabelecer limites para o papel da IA na tomada de decisões no local de trabalho, os empregadores que auditarem proativamente suas práticas relacionadas à IA e priorizarem a participação humana transparente nos processos de tomada de decisão estarão melhor posicionados para minimizar riscos legais e se adaptar às exigências regulatórias em evolução.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...