‘Carga pesada’: A nova legislação de IA do Colorado estabelece altos padrões, afirmam analistas
A recente tentativa fracassada de membros do Congresso dos EUA de congelar as leis de inteligência artificial (IA) a nível estadual deixou as empresas com operações nacionais enfrentando um mosaico de regras sobre a tecnologia.
Uma lei de IA do Colorado que entrará em vigor no próximo ano se destaca pela sua amplitude e abrangência, segundo analistas. A legislação exige que as empresas adotem programas de gerenciamento de risco para sistemas de IA de alto risco, incluindo avaliações de impacto, processos de supervisão e estratégias de mitigação.
Abordagem do Colorado em comparação com outras legislações estaduais
“O Colorado é o primeiro e único estado que possui uma legislação abrangente sobre IA, semelhante ao que vimos na UE”, afirmou um especialista. “Muitas outras leis estaduais nos EUA são muito nichadas”, acrescentou.
Durante as etapas finais da passagem da Big Beautiful Bill Act, o Senado removeu uma disposição que impediria os estados de regular a IA por uma década, abrindo as portas para legislações a nível estadual, conforme relatado anteriormente.
Em contraste com a abordagem do Colorado, a maioria das leis estaduais de IA promulgadas até o momento têm sido fragmentadas e focadas em aplicações específicas, como saúde ou usos particulares de IA, como deepfakes.
Implicações para empresas
A legislação do Colorado entrará em vigor em 1º de fevereiro de 2026, e as empresas precisam se preparar para o ônus de conformidade e a possibilidade de que outros estados sigam o mesmo caminho com leis semelhantes. Assim como o EU AI Act, a lei se aplica tanto a desenvolvedores quanto a implementadores de sistemas de IA.
De acordo com a lei do Colorado, sistemas de IA de “alto risco” — aqueles usados para tomar decisões “consequenciais” em áreas como educação, emprego, empréstimos, saúde e seguros — devem ser regulamentados por quadros formais de gerenciamento de risco. Essas abordagens precisam ser divulgadas ao procurador-geral e, em alguns casos, aos consumidores, especialmente se a empresa tomar conhecimento de que um sistema de IA de alto risco causou discriminação algorítmica.
Desafios de conformidade
“Isso é uma verdadeira carga. Isso é algo com que suas equipes de conformidade não estão acostumadas”, observou um especialista. “Há muitos requisitos. Se você tentar implementar isso em janeiro, simplesmente não vai funcionar.”
Os requisitos sobrepostos para implementadores e desenvolvedores adicionam complexidade à conformidade. Por exemplo, os implementadores devem realizar avaliações de impacto e notificar os consumidores sobre as práticas de gerenciamento de risco relacionadas ao uso de IA. Enquanto isso, os desenvolvedores devem demonstrar como abordam a discriminação algorítmica e publicar detalhes sobre seus sistemas e abordagens de gerenciamento de risco.
Exceções e recomendações
A legislação inclui isentações para pequenos implementadores, sistemas de IA regulamentados federalmente, atividades de pesquisa e certas tecnologias de IA de menor risco.
Recomenda-se utilizar o Quadro de Gerenciamento de Risco de IA do Instituto Nacional de Padrões e Tecnologia como base para um programa de conformidade em IA e como defesa legal contra ações de fiscalização sob a Lei de IA do Colorado.
A lei não especifica penalidades monetárias, mas afirma que as violações são consideradas práticas comerciais injustas sob as leis de proteção ao consumidor do Colorado. De acordo com a legislação existente, cada violação de uma prática comercial injusta pode acarretar uma penalidade civil de até $20.000.
Possíveis desdobramentos
A legislação ainda pode ser emendada antes de entrar em vigor, potencialmente restringindo seu escopo. Segundo analistas, os estados podem seguir um de dois caminhos: continuar regulando a IA de maneira fragmentada ou seguir o exemplo do Colorado, promulgando suas próprias leis abrangentes sobre IA. Algumas jurisdições — como Nova York ou Califórnia — podem desenvolver suas próprias estruturas amplas, afirmaram os especialistas.
“Se a legislatura do Colorado corrigir a Lei de IA do Colorado — reduzindo as cargas ou, pelo menos, começando a adicionar mais clareza e cor a ela, tornando-a mais utilizável e atraente… então ela se torna, eu acho, o que o Colorado está esperando: um modelo a ser seguido”, concluiu um dos analistas. “Isso deve iniciar uma onda, e muitos outros estados poderiam considerar legislações abrangentes sobre IA.”