Leis de IA Fragmentadas Deixam Lacunas: Colorado e Califórniah2>
O curioso sobre a IA é que diferentes usos podem ter diferentes regulamentações. No ambiente de trabalho, os direitos de privacidade de um candidato sob uma ferramenta de IA podem evaporar. De um lado, você é um b>“consumidor”b> com direitos de privacidade reconhecíveis; do outro, você é um b>“candidato”b> ou b>“empregado”b>, e esses direitos mudam — ou desaparecem. Colorado e Califórnia oferecem uma visão de como esses direitos oscilam.p>
Regulamentações em Coloradoh3>
A lei de privacidade do estado do Colorado define b>“consumidor”b> de uma forma que basicamente para na porta do RH. Empregados, candidatos e atores comerciais estão fora, o que significa que a opção de exclusão sob as leis de privacidade do Colorado permanece fora da sala de entrevistas. No entanto, a Lei de IA do Colorado classifica decisões de emprego e oportunidades como b>“consequenciais”b>, sem vinculá-las aos direitos de exclusão das leis de privacidade.p>
A Lei de IA ainda orienta as equipes de RH sobre como agir. Antes de uma decisão, elas devem fornecer um aviso claro que explique o propósito e a função do sistema. Após um resultado adverso, os empregadores devem fornecer aos candidatos detalhes específicos: o motivo da decisão, um caminho para corrigir dados imprecisos e um recurso que inclua uma revisão humana quando viável. A lei impõe um dever de b>cuidado razoávelb> para prevenir discriminação algorítmica e exige um programa de risco com avaliações de impacto no lançamento, anualmente e após mudanças materiais.p>
Todo ferramenta de IA usada para decisões de contratação deve garantir direitos essenciais: aviso, razões, correção e recurso.p>
Regulamentações em Califórniah3>
A Califórnia segue um caminho diferente. O regulador de privacidade do estado trata sistemas automatizados que tomam decisões sobre emprego e contratos como b>“significativos”b>. Isso desencadeia um aviso pré-uso de b>Tecnologia de Tomada de Decisão Automatizada (ADMT)b>, uma opção de exclusão para essas decisões significativas e prazos de resposta para acesso e recursos. Se alguém optar por sair, você deve parar de usar a ADMT para essa pessoa dentro de 15 dias úteis.p>
As regras de direitos civis da Califórnia também cobrem ferramentas automatizadas usadas para contratação, promoção e outras ações de pessoal, centrando os deveres do empregador no risco de discriminação, testes e documentação.p>
Desafios e Consideraçõesh3>
Em Colorado, a construção segue a sequência: aviso, razões, correção, recurso. Em Califórnia, duas regras se sobrepõem. Primeiro, as regras da ADMT entram em vigor quando a automação toma ou influencia significativamente uma decisão de emprego. Isso significa aviso pré-uso, opção de exclusão, acesso e explicações, além de avaliações de risco. Em segundo lugar, sob a estrutura de direitos civis que opera paralelamente, é preciso monitorar a discriminação dentro do mesmo fluxo de contratação.p>
O aspecto mais complicado não são apenas as regras; são os rótulos. Os direitos das pessoas mudam não com base em riscos reais, mas conforme o rótulo da pessoa muda. Você começa como consumidor e se torna candidato, e de repente diferentes estatutos são acionados. Isso cria lacunas para as pessoas e complicações para as equipes de conformidade.p>
Recomendações para Legisladores e Reguladoresh3>
Para legisladores e reguladores, duas abordagens duráveis superam a fragmentação atual. Uma: construir regras de IA específicas para o setor com isenções claras de deveres de privacidade conflitantes, para que as equipes de RH não precisem jogar “Twister regulatório”. Duas: harmonizar definições para que as pessoas mantenham os mesmos direitos fundamentais em uma decisão automatizada, independentemente de onde estejam na hierarquia organizacional.p>
Qualquer uma dessas rotas oferece aos trabalhadores e empregadores um mapa mais sólido. Essa pode ser a única maneira de manter as entradas abertas e as barreiras reais.p>