Estados Norte-Americanos Regulam Proatividade na Gestão de Riscos de IA

Alguns Estados Aceleram a Regulamentação da Gestão de Risco de IA

Nos últimos tempos, a regulamentação da inteligência artificial (IA) tem se tornado um tema crucial, especialmente à medida que os estados dos EUA se mobilizam para gerenciar os riscos associados a essa tecnologia emergente. Este estudo analisa as iniciativas de regulamentação em estados como Colorado e Utah, que se destacam por suas legislações pioneiras.

Principais Conclusões

  • Corrida armamentista global de IA: Os estados dos EUA estão em uma posição única para regular os riscos da IA.
  • Legislações em Colorado e Utah: Ambos os estados implementaram leis para proteger os consumidores no uso da IA.
  • Outros estados: Vários estados estão enfatizando leis existentes que podem ser aplicadas à regulamentação da IA.

Em um período de um mês, um decreto executivo de 2023 focado na segurança da IA foi substituído por um novo que busca posicionar os EUA como líderes globais em inovação em IA. Enquanto isso, na União Europeia, uma diretiva de responsabilidade de 2022 foi abandonada em favor de um programa de trabalho mais ambicioso e rápido.

O recente surgimento de modelos de linguagem de código aberto, como o DeepSeek, destaca os riscos associados a uma abordagem de “mover rápido e quebrar coisas”. Após seu lançamento, o DeepSeek foi hackeado e descreditado em questão de dias.

A Lei de IA do Colorado

A Lei de Inteligência Artificial do Colorado (CAIA) entra em vigor em 1º de fevereiro de 2026 e aplica-se a desenvolvedores e implementadores de sistemas de IA de alto risco. A definição de um sistema de IA de alto risco inclui aqueles usados como fator substancial na tomada de decisões que impactam significativamente os consumidores.

As definições na CAIA podem parecer abstratas, mas incluem técnicas robustas de mitigação. Um recurso destacado é o abrigo seguro se o National Institute of Standards and Technology (NIST) considerar ao elaborar uma Política e Programa de Gestão de Risco, que é obrigatório.

O NIST fornece orientações voluntárias sobre como gerenciar os riscos da IA ao longo do ciclo de vida do sistema, promovendo características como confiabilidade, segurança, resiliência, responsabilidade, transparência e justiça.

Além de uma política de gestão de risco, entidades cobertas devem realizar avaliações de impacto anualmente, com documentação substancial incluindo análise, descrição dos dados utilizados e medidas de transparência.

A Lei de Política de IA de Utah

Utah também é um dos primeiros estados a adotar legislação sobre IA. A Lei de Política de Inteligência Artificial de Utah (UAIP) está em vigor desde maio de 2024 e visa aumentar a proteção ao consumidor enquanto incentiva a inovação responsável em IA.

  • Transparência: Exige requisitos de divulgação ao consumidor.
  • Responsabilidade: Esclarece a responsabilidade em operações comerciais de IA.
  • Inovação: Estabelece um sandbox regulatório para o desenvolvimento responsável de IA.

Um aspecto único da UAIP é a inclusão de acordos de mitigação regulatória (RMAs), que permitem aos desenvolvedores e usuários de IA testar suas tecnologias em um ambiente controlado. Em dezembro, o escritório responsável anunciou a execução de seu primeiro RMA com o ElizaChat, um aplicativo voltado para a saúde mental de adolescentes.

Outros Estados em Ação

Na data de publicação deste estudo, Virginia anunciou a aprovação de um projeto de lei de IA parecido com as leis do Colorado e Utah. Connecticut e Novo México também estão avançando com iniciativas que abordam a discriminação algorítmica e a responsabilidade em IA.

Além disso, vários procuradores gerais dos estados têm emitido orientações sobre como proteger os consumidores em relação à IA, com destaque para Oregon, onde o procurador geral enfatizou a aplicação da Lei de Práticas Comerciais Injustas e outras legislações relevantes.

Preparando-se para o Futuro

Embora ainda seja cedo, a regulamentação da IA pelos estados e a inclusão de frameworks de orientação voluntária como o NIST oferecem pontos de partida para os padrões que emergirão como obrigações legais. Portanto, as organizações devem considerar se suas políticas e procedimentos estarão prontos para se adaptar a essas novas exigências.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...