Proposta de Regulação Abrangente da IA na Califórnia

Relatório de Política de IA da Califórnia: Estruturas Regulatórias Propostas

Em 17 de junho de 2025, o Grupo de Trabalho Conjunto de Política da Califórnia sobre Modelos de IA de Fronteira publicou a versão final de seu relatório, “O Relatório da Califórnia sobre Política de IA de Fronteira”, que delineia uma estrutura de formulação de políticas para a inteligência artificial (IA) de fronteira.

Comissionado pelo Governador Gavin Newsom e redigido por pesquisadores e acadêmicos de IA reconhecidos, o relatório defende uma abordagem de “confiar, mas verificar”.

Recomendações Propostas

O relatório fornece recomendações que provavelmente informarão ações legislativas ou regulatórias futuras, embora nenhuma obrigação legal decorra atualmente de suas conclusões:

Requisitos de Transparência Aprimorados

O relatório propõe a divulgação pública dos métodos de aquisição de dados de treinamento de IA, práticas de segurança, resultados de testes pré-implantação e relatórios de impacto. Isso representa uma mudança fundamental em relação às práticas atuais, onde as empresas mantêm controle proprietário sobre os processos de desenvolvimento.

Sistema de Relato de Eventos Adversos

O relatório recomenda o relato obrigatório de incidentes relacionados à IA por desenvolvedores, mecanismos de relato voluntário para usuários e um sistema administrado pelo governo, semelhante a estruturas existentes na aviação e na saúde.

Quadro de Avaliação de Risco de Terceiros

O relatório afirma que as empresas “desincentivam a pesquisa de segurança ao ameaçar implicitamente banir pesquisadores independentes” e sugere um “porto seguro para avaliação independente de IA.” Essa abordagem poderia reduzir a capacidade das empresas de impedir pesquisas externas de segurança, enquanto exige programas formais de divulgação de vulnerabilidades.

Limiares Regulatórios Proporcionais

Movendo-se além de limiares baseados apenas em computação, o relatório propõe uma abordagem multifatorial que considera as capacidades do modelo, o impacto a jusante e os níveis de risco, com limiares adaptativos que podem ser atualizados à medida que a tecnologia evolui.

Filósofia Regulatória e Implementação

O relatório baseia-se em experiências passadas de governança de tecnologia, enfatizando a importância da intervenção política precoce. Os autores analisam casos de desenvolvimento da internet, regulação de produtos de consumo e políticas energéticas para apoiar sua abordagem regulatória.

Embora o relatório não especifique cronogramas de implementação, a história regulatória da Califórnia sugere ação legislativa potencial na sessão de 2025–2026, por meio de uma abordagem faseada: requisitos iniciais de transparência e relato, seguidos por estruturas de avaliação de terceiros e, por fim, uma regulação abrangente baseada em risco.

Preocupações Potenciais

O reconhecimento do relatório sobre um “dilema de evidência” captura as limitações inerentes à regulação de uma tecnologia ainda caracterizada por significativa opacidade.

Por exemplo, o relatório observa que “muitas empresas de IA nos Estados Unidos reconhecem a necessidade de transparência para essa tecnologia transformadora.” No entanto, também observa que grande parte da transparência é performativa e limitada pela “opacidade sistêmica em áreas-chave.”

Olhando para o Futuro

O Relatório da Califórnia sobre Política de IA de Fronteira representa a tentativa mais sofisticada de governança de IA baseada em evidências até o momento. Embora essas recomendações ainda não sejam lei, a influência da Califórnia na regulação de tecnologia sugere que esses princípios provavelmente serão implementados de alguma forma.

As organizações devem monitorar os desenvolvimentos legislativos, considerar participar de comentários públicos e implementar proativamente práticas recomendadas, além de desenvolver capacidades internas para a governança contínua da IA.

A interseção de uma regulação estadual abrangente e as capacidades de IA em rápida evolução requer estruturas de conformidade flexíveis que possam se adaptar a requisitos em mudança, mantendo a eficácia operacional.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...