Relatório de Política de IA da Califórnia: Estruturas Regulatórias Propostas
Em 17 de junho de 2025, o Grupo de Trabalho Conjunto de Política da Califórnia sobre Modelos de IA de Fronteira publicou a versão final de seu relatório, “O Relatório da Califórnia sobre Política de IA de Fronteira”, que delineia uma estrutura de formulação de políticas para a inteligência artificial (IA) de fronteira.
Comissionado pelo Governador Gavin Newsom e redigido por pesquisadores e acadêmicos de IA reconhecidos, o relatório defende uma abordagem de “confiar, mas verificar”.
Recomendações Propostas
O relatório fornece recomendações que provavelmente informarão ações legislativas ou regulatórias futuras, embora nenhuma obrigação legal decorra atualmente de suas conclusões:
Requisitos de Transparência Aprimorados
O relatório propõe a divulgação pública dos métodos de aquisição de dados de treinamento de IA, práticas de segurança, resultados de testes pré-implantação e relatórios de impacto. Isso representa uma mudança fundamental em relação às práticas atuais, onde as empresas mantêm controle proprietário sobre os processos de desenvolvimento.
Sistema de Relato de Eventos Adversos
O relatório recomenda o relato obrigatório de incidentes relacionados à IA por desenvolvedores, mecanismos de relato voluntário para usuários e um sistema administrado pelo governo, semelhante a estruturas existentes na aviação e na saúde.
Quadro de Avaliação de Risco de Terceiros
O relatório afirma que as empresas “desincentivam a pesquisa de segurança ao ameaçar implicitamente banir pesquisadores independentes” e sugere um “porto seguro para avaliação independente de IA.” Essa abordagem poderia reduzir a capacidade das empresas de impedir pesquisas externas de segurança, enquanto exige programas formais de divulgação de vulnerabilidades.
Limiares Regulatórios Proporcionais
Movendo-se além de limiares baseados apenas em computação, o relatório propõe uma abordagem multifatorial que considera as capacidades do modelo, o impacto a jusante e os níveis de risco, com limiares adaptativos que podem ser atualizados à medida que a tecnologia evolui.
Filósofia Regulatória e Implementação
O relatório baseia-se em experiências passadas de governança de tecnologia, enfatizando a importância da intervenção política precoce. Os autores analisam casos de desenvolvimento da internet, regulação de produtos de consumo e políticas energéticas para apoiar sua abordagem regulatória.
Embora o relatório não especifique cronogramas de implementação, a história regulatória da Califórnia sugere ação legislativa potencial na sessão de 2025–2026, por meio de uma abordagem faseada: requisitos iniciais de transparência e relato, seguidos por estruturas de avaliação de terceiros e, por fim, uma regulação abrangente baseada em risco.
Preocupações Potenciais
O reconhecimento do relatório sobre um “dilema de evidência” captura as limitações inerentes à regulação de uma tecnologia ainda caracterizada por significativa opacidade.
Por exemplo, o relatório observa que “muitas empresas de IA nos Estados Unidos reconhecem a necessidade de transparência para essa tecnologia transformadora.” No entanto, também observa que grande parte da transparência é performativa e limitada pela “opacidade sistêmica em áreas-chave.”
Olhando para o Futuro
O Relatório da Califórnia sobre Política de IA de Fronteira representa a tentativa mais sofisticada de governança de IA baseada em evidências até o momento. Embora essas recomendações ainda não sejam lei, a influência da Califórnia na regulação de tecnologia sugere que esses princípios provavelmente serão implementados de alguma forma.
As organizações devem monitorar os desenvolvimentos legislativos, considerar participar de comentários públicos e implementar proativamente práticas recomendadas, além de desenvolver capacidades internas para a governança contínua da IA.
A interseção de uma regulação estadual abrangente e as capacidades de IA em rápida evolução requer estruturas de conformidade flexíveis que possam se adaptar a requisitos em mudança, mantendo a eficácia operacional.