Atualização da Lei de IA no Colorado: Desafios e Incertezas

A Lei de IA do Colorado ainda se mantém após falha na atualização

Em 2024, o Colorado fez história ao se tornar o primeiro estado dos Estados Unidos a implementar uma regulamentação abrangente sobre a inteligência artificial. O Projeto de Lei do Senado 24-205 (SB205), também conhecido como Ato de Inteligência Artificial do Colorado (CAIA), estabeleceu obrigações detalhadas de conformidade para desenvolvedores e usuários de sistemas de IA de “alto risco” que operam em setores como emprego, habitação, finanças, saúde, educação e serviços governamentais essenciais.

O CAIA foi projetado para abordar preocupações sobre discriminação algorítmica, exigindo transparência, avaliações de risco, divulgação ao consumidor e mitigação de riscos até 1º de fevereiro de 2026. Para os empregadores que utilizam IA na contratação, a lei introduziu um novo e abrangente cenário de conformidade, que, embora amplamente considerado um movimento pioneiro, levantou preocupações sobre complexidade, inovação e consequências não intencionais.

Apoio Relutante do Governador Polis e Chamado à Mudança

Quando o governador Jared Polis sancionou o SB205, ele o fez com notável hesitação. Em sua declaração de assinatura, Polis alertou que a lei cria um regime de conformidade complexo que poderia “interferir na inovação e desencorajar a concorrência” ao impor pesadas cargas sobre desenvolvedores e implementadores que operam no Colorado ou interagem com residentes do estado. Ele instou o Congresso a intervir com uma regulamentação federal para evitar um mosaico de leis estaduais sobre IA que poderiam sufocar o avanço tecnológico em diversos setores.

Polis também destacou uma preocupação única: o CAIA se desvia dos frameworks tradicionais de discriminação ao proibir todos os resultados discriminatórios de sistemas de IA, independentemente da intenção. Ele incentivou os legisladores do Colorado a reexaminar esse padrão antes da data de eficácia da lei em 2026.

Em uma rara carta pública co-assinada por Polis, pelo procurador-geral Phil Weiser e pelo líder da maioria no Senado Robert Rodriguez, os líderes estaduais reconheceram os riscos associados às amplas definições e requisitos de divulgação do CAIA. Eles prometeram minimizar consequências não intencionais e incentivaram refinamentos futuros para proteger a inovação enquanto garantiam a equidade.

SB25-318: Uma Resposta Medida que Falhou

Em 2025, os legisladores introduziram o Projeto de Lei do Senado 25-318 (SB318) como uma tentativa de refinar e suavizar o SB205 antes da data de conformidade. O SB318 propôs emendas ponderadas, incluindo a restrição da definição de discriminação algorítmica a violações das leis anti-discriminação existentes, isenções para pequenas empresas e desenvolvedores de IA de código aberto, esclarecimento dos direitos de apelação e obrigações de divulgação, além de facilitar requisitos para empresas que usam IA exclusivamente para recrutamento e contratação de candidatos externos.

Para as empresas de triagem de antecedentes e empregadores que dependem de checagens de antecedentes assistidas por IA, essas mudanças eram significativas. O SB318 reconheceu que serviços já regulamentados sob a Lei de Relatórios de Crédito Justo (FCRA) não deveriam enfrentar obrigações duplicadas de conformidade com a IA e que decisões de emprego feitas com revisão humana significativa diferem fundamentalmente de sistemas totalmente automatizados.

O procurador-geral Weiser, ao testemunhar diante do Comitê de Negócios, Trabalho e Tecnologia do Senado, alertou que o Colorado corria o risco de “avançar rápido demais em uma área complexa” e recomendou adiar a implementação da lei por um ano para evitar “consequências não intencionais” e proteger a competitividade do estado em setores de tecnologia emergentes.

Apesar do amplo apoio de partes interessadas em diversos setores, a proposta de correção não conseguiu obter consenso. No último dia da audiência do comitê, o senador Rodriguez pediu que o SB318 fosse adiado indefinidamente, citando a falta de acordo e tempo insuficiente para resolver preocupações complexas. Sem correções legislativas, empregadores e desenvolvedores de IA do Colorado agora devem se preparar para cumprir a lei original, mais abrangente, até 1º de fevereiro de 2026.

Onde o Ato de IA do Colorado Pode Oferecer Alívio para Empregadores que Usam Checagens de Antecedentes

Apesar de seus desafios, o Ato de Inteligência Artificial do Colorado fornece várias salvaguardas importantes para empregadores e empresas de triagem de antecedentes. Notavelmente, a autoridade de aplicação repousa exclusivamente com o Procurador-Geral do Colorado. Ao excluir direitos de ação privados, a lei isenta as empresas dos riscos adicionais de litígios frequentemente associados a regimes regulatórios emergentes. Além disso, a lei permite que as empresas aleguem uma defesa afirmativa ao demonstrar que identificaram e corrigiram violações por meio de processos internos, incentivando esforços proativos de conformidade em vez de penalizar erros de boa-fé.

A lei também concentra suas obrigações mais rigorosas em sistemas de IA que servem como a base principal para decisões consequentes sem envolvimento humano significativo. Essa estrutura sugere que ferramentas tradicionais de triagem de antecedentes, que normalmente envolvem uma revisão humana das descobertas antes de uma decisão de emprego ser tomada, podem ficar fora dos requisitos mais onerosos. Sob o Ato de Inteligência Artificial do Colorado, a distinção entre fornecer informações para informar uma decisão e tomar a decisão em si é crítica.

Uma agência de relatórios ao consumidor que fornece relatórios de verificação de antecedentes, particularmente sob as salvaguardas processuais da FCRA, geralmente não age como a decisora final. Em vez disso, os empregadores mantêm a discrição e devem realizar avaliações individualizadas antes de tomar ações adversas, preservando um envolvimento humano significativo.

Embora o SB25-318 tenha codificado uma isenção clara para sistemas regidos pela FCRA, mesmo sem sua aprovação, a ênfase da lei na autoridade de decisão final pode apontar para um tratamento mais favorável para checagens de antecedentes de emprego que cumprem com os padrões federais de relatórios ao consumidor. No entanto, os empregadores não devem presumir que a conformidade com a FCRA sozinha os protegerá de todas as obrigações relacionadas à IA. Como os sistemas de IA são implementados, o nível de revisão humana envolvida e a extensão em que os resultados automatizados influenciam as decisões finais permanecerão fatores críticos na determinação dos riscos de conformidade sob o Ato de IA do Colorado.

Áreas de Preocupação com a Conformidade para Empregadores e Agências de Relatórios ao Consumidor

Embora essas proteções estatutárias possam aliviar alguns encargos de conformidade, empregadores e agências de relatórios ao consumidor devem permanecer atentos a vários riscos significativos sob o Ato de Inteligência Artificial do Colorado. A lei define um sistema de inteligência artificial de forma ampla como qualquer sistema baseado em máquina que infere saídas a partir de entradas, o que corre o risco de incluir ferramentas de automação tradicionais e tecnologias de adjudicação baseadas em regras que normalmente não estão associadas ao aprendizado adaptativo ou viés. Sem um estreitamento claro para sistemas de aprendizado de máquina, ferramentas de triagem de antecedentes e suporte à conformidade poderiam cair dentro do escopo da regulamentação.

A definição de sistemas de inteligência artificial de alto risco também levanta questões. Sob a lei, qualquer sistema de IA que influencie substancialmente as decisões de emprego poderia ser considerado de alto risco, mesmo que a decisão final envolva julgamento humano significativo. Empregadores que utilizam ferramentas de IA para auxiliar em checagens de antecedentes ou avaliações de contratação precisarão avaliar cuidadosamente o nível de supervisão humana incorporado em seus processos.

Os requisitos de divulgação ao consumidor da lei podem criar encargos operacionais também. Os empregadores devem notificar indivíduos quando a IA influencia significativamente uma decisão consequente e devem explicar o papel do sistema no processo de tomada de decisão. Atender a esses requisitos provavelmente dependerá de os fornecedores de IA fornecerem divulgações técnicas detalhadas, o que pode apresentar desafios se os fornecedores não estiverem dispostos ou não puderem compartilhar as informações necessárias.

Por fim, os requisitos de manutenção de registros sob a lei exigem que as empresas mantenham documentação de avaliações de impacto e políticas de gestão de riscos por pelo menos três anos após a implantação de um sistema de alto risco. Essas obrigações podem impor encargos adicionais de manutenção de registros em comparação com os padrões federais existentes sob a FCRA ou regulamentos da Comissão de Oportunidades Iguais no Emprego, criando uma tensão potencial entre os frameworks de conformidade estaduais e federais. Os empregadores precisarão alinhar seus procedimentos de documentação cuidadosamente para evitar obrigações de retenção conflitantes.

Pensamentos Finais

Embora a lei pioneira do Colorado reflita objetivos importantes de equidade e transparência no uso da IA, a falha em adotar o SB318 deixa os empregadores com uma significativa incerteza de conformidade. A amplitude da lei original corre o risco de incluir tecnologias de baixo risco e pode inibir a inovação em contratação, triagem e tecnologia de recursos humanos.

Empregadores que utilizam IA, seja diretamente ou por meio de fornecedores terceirizados, devem tomar medidas proativas agora. Revisar práticas de gestão de riscos de IA, garantir supervisão humana nos processos de tomada de decisão e preparar divulgações robustas será essencial antes do prazo de 1º de fevereiro de 2026.

Na ausência de intervenção federal, a experiência do Colorado oferece uma prévia de como os estados podem moldar o próximo capítulo da regulamentação da IA e por que uma redação cuidadosa será fundamental para equilibrar inovação com proteção ao consumidor.

More Insights

Alfabetização em IA: Diretrizes para Construir Seu Programa

A obrigação de alfabetização em IA do Ato de IA da UE se aplica a todos os que lidam com IA e exige que os provedores e implementadores garantam um nível suficiente de alfabetização em IA entre seus...

Cruzamentos Éticos da Inteligência Artificial

A inteligência artificial (IA) está se tornando cada vez mais influente em processos de tomada de decisão críticos nas indústrias, levantando preocupações sobre possíveis preconceitos e falta de...

Senadora das Filipinas defende equilíbrio na governança da IA

Uma legisladora nas Filipinas está pedindo uma abordagem cautelosa e consultiva para regular a inteligência artificial (IA) no país, destacando a necessidade de garantir que as políticas promovam o...

A China e o Futuro da Governança de IA: Um Modelo de Código Aberto

A rápida evolução da inteligência artificial (IA) na China, liderada por gigantes tecnológicos como Alibaba e Baidu, é impulsionada por uma forte ênfase na colaboração de código aberto. Essa abordagem...