Estados Norte-Americanos Regulam Proatividade na Gestão de Riscos de IA

Alguns Estados Aceleram a Regulamentação da Gestão de Risco de IA

Nos últimos tempos, a regulamentação da inteligência artificial (IA) tem se tornado um tema crucial, especialmente à medida que os estados dos EUA se mobilizam para gerenciar os riscos associados a essa tecnologia emergente. Este estudo analisa as iniciativas de regulamentação em estados como Colorado e Utah, que se destacam por suas legislações pioneiras.

Principais Conclusões

  • Corrida armamentista global de IA: Os estados dos EUA estão em uma posição única para regular os riscos da IA.
  • Legislações em Colorado e Utah: Ambos os estados implementaram leis para proteger os consumidores no uso da IA.
  • Outros estados: Vários estados estão enfatizando leis existentes que podem ser aplicadas à regulamentação da IA.

Em um período de um mês, um decreto executivo de 2023 focado na segurança da IA foi substituído por um novo que busca posicionar os EUA como líderes globais em inovação em IA. Enquanto isso, na União Europeia, uma diretiva de responsabilidade de 2022 foi abandonada em favor de um programa de trabalho mais ambicioso e rápido.

O recente surgimento de modelos de linguagem de código aberto, como o DeepSeek, destaca os riscos associados a uma abordagem de “mover rápido e quebrar coisas”. Após seu lançamento, o DeepSeek foi hackeado e descreditado em questão de dias.

A Lei de IA do Colorado

A Lei de Inteligência Artificial do Colorado (CAIA) entra em vigor em 1º de fevereiro de 2026 e aplica-se a desenvolvedores e implementadores de sistemas de IA de alto risco. A definição de um sistema de IA de alto risco inclui aqueles usados como fator substancial na tomada de decisões que impactam significativamente os consumidores.

As definições na CAIA podem parecer abstratas, mas incluem técnicas robustas de mitigação. Um recurso destacado é o abrigo seguro se o National Institute of Standards and Technology (NIST) considerar ao elaborar uma Política e Programa de Gestão de Risco, que é obrigatório.

O NIST fornece orientações voluntárias sobre como gerenciar os riscos da IA ao longo do ciclo de vida do sistema, promovendo características como confiabilidade, segurança, resiliência, responsabilidade, transparência e justiça.

Além de uma política de gestão de risco, entidades cobertas devem realizar avaliações de impacto anualmente, com documentação substancial incluindo análise, descrição dos dados utilizados e medidas de transparência.

A Lei de Política de IA de Utah

Utah também é um dos primeiros estados a adotar legislação sobre IA. A Lei de Política de Inteligência Artificial de Utah (UAIP) está em vigor desde maio de 2024 e visa aumentar a proteção ao consumidor enquanto incentiva a inovação responsável em IA.

  • Transparência: Exige requisitos de divulgação ao consumidor.
  • Responsabilidade: Esclarece a responsabilidade em operações comerciais de IA.
  • Inovação: Estabelece um sandbox regulatório para o desenvolvimento responsável de IA.

Um aspecto único da UAIP é a inclusão de acordos de mitigação regulatória (RMAs), que permitem aos desenvolvedores e usuários de IA testar suas tecnologias em um ambiente controlado. Em dezembro, o escritório responsável anunciou a execução de seu primeiro RMA com o ElizaChat, um aplicativo voltado para a saúde mental de adolescentes.

Outros Estados em Ação

Na data de publicação deste estudo, Virginia anunciou a aprovação de um projeto de lei de IA parecido com as leis do Colorado e Utah. Connecticut e Novo México também estão avançando com iniciativas que abordam a discriminação algorítmica e a responsabilidade em IA.

Além disso, vários procuradores gerais dos estados têm emitido orientações sobre como proteger os consumidores em relação à IA, com destaque para Oregon, onde o procurador geral enfatizou a aplicação da Lei de Práticas Comerciais Injustas e outras legislações relevantes.

Preparando-se para o Futuro

Embora ainda seja cedo, a regulamentação da IA pelos estados e a inclusão de frameworks de orientação voluntária como o NIST oferecem pontos de partida para os padrões que emergirão como obrigações legais. Portanto, as organizações devem considerar se suas políticas e procedimentos estarão prontos para se adaptar a essas novas exigências.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...