Leis de IA em Colorado e Califórnia: Lacunas e Desafios

Leis de IA Fragmentadas Deixam Lacunas: Colorado e Califórniah2>

O curioso sobre a IA é que diferentes usos podem ter diferentes regulamentações. No ambiente de trabalho, os direitos de privacidade de um candidato sob uma ferramenta de IA podem evaporar. De um lado, você é um b>“consumidor”b> com direitos de privacidade reconhecíveis; do outro, você é um b>“candidato”b> ou b>“empregado”b>, e esses direitos mudam — ou desaparecem. Colorado e Califórnia oferecem uma visão de como esses direitos oscilam.p>

Regulamentações em Coloradoh3>

A lei de privacidade do estado do Colorado define b>“consumidor”b> de uma forma que basicamente para na porta do RH. Empregados, candidatos e atores comerciais estão fora, o que significa que a opção de exclusão sob as leis de privacidade do Colorado permanece fora da sala de entrevistas. No entanto, a Lei de IA do Colorado classifica decisões de emprego e oportunidades como b>“consequenciais”b>, sem vinculá-las aos direitos de exclusão das leis de privacidade.p>

A Lei de IA ainda orienta as equipes de RH sobre como agir. Antes de uma decisão, elas devem fornecer um aviso claro que explique o propósito e a função do sistema. Após um resultado adverso, os empregadores devem fornecer aos candidatos detalhes específicos: o motivo da decisão, um caminho para corrigir dados imprecisos e um recurso que inclua uma revisão humana quando viável. A lei impõe um dever de b>cuidado razoávelb> para prevenir discriminação algorítmica e exige um programa de risco com avaliações de impacto no lançamento, anualmente e após mudanças materiais.p>

Todo ferramenta de IA usada para decisões de contratação deve garantir direitos essenciais: aviso, razões, correção e recurso.p>

Regulamentações em Califórniah3>

A Califórnia segue um caminho diferente. O regulador de privacidade do estado trata sistemas automatizados que tomam decisões sobre emprego e contratos como b>“significativos”b>. Isso desencadeia um aviso pré-uso de b>Tecnologia de Tomada de Decisão Automatizada (ADMT)b>, uma opção de exclusão para essas decisões significativas e prazos de resposta para acesso e recursos. Se alguém optar por sair, você deve parar de usar a ADMT para essa pessoa dentro de 15 dias úteis.p>

As regras de direitos civis da Califórnia também cobrem ferramentas automatizadas usadas para contratação, promoção e outras ações de pessoal, centrando os deveres do empregador no risco de discriminação, testes e documentação.p>

Desafios e Consideraçõesh3>

Em Colorado, a construção segue a sequência: aviso, razões, correção, recurso. Em Califórnia, duas regras se sobrepõem. Primeiro, as regras da ADMT entram em vigor quando a automação toma ou influencia significativamente uma decisão de emprego. Isso significa aviso pré-uso, opção de exclusão, acesso e explicações, além de avaliações de risco. Em segundo lugar, sob a estrutura de direitos civis que opera paralelamente, é preciso monitorar a discriminação dentro do mesmo fluxo de contratação.p>

O aspecto mais complicado não são apenas as regras; são os rótulos. Os direitos das pessoas mudam não com base em riscos reais, mas conforme o rótulo da pessoa muda. Você começa como consumidor e se torna candidato, e de repente diferentes estatutos são acionados. Isso cria lacunas para as pessoas e complicações para as equipes de conformidade.p>

Recomendações para Legisladores e Reguladoresh3>

Para legisladores e reguladores, duas abordagens duráveis superam a fragmentação atual. Uma: construir regras de IA específicas para o setor com isenções claras de deveres de privacidade conflitantes, para que as equipes de RH não precisem jogar “Twister regulatório”. Duas: harmonizar definições para que as pessoas mantenham os mesmos direitos fundamentais em uma decisão automatizada, independentemente de onde estejam na hierarquia organizacional.p>

Qualquer uma dessas rotas oferece aos trabalhadores e empregadores um mapa mais sólido. Essa pode ser a única maneira de manter as entradas abertas e as barreiras reais.p>

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...