Proposta de Regulação Abrangente da IA na Califórnia

Relatório de Política de IA da Califórnia: Estruturas Regulatórias Propostas

Em 17 de junho de 2025, o Grupo de Trabalho Conjunto de Política da Califórnia sobre Modelos de IA de Fronteira publicou a versão final de seu relatório, “O Relatório da Califórnia sobre Política de IA de Fronteira”, que delineia uma estrutura de formulação de políticas para a inteligência artificial (IA) de fronteira.

Comissionado pelo Governador Gavin Newsom e redigido por pesquisadores e acadêmicos de IA reconhecidos, o relatório defende uma abordagem de “confiar, mas verificar”.

Recomendações Propostas

O relatório fornece recomendações que provavelmente informarão ações legislativas ou regulatórias futuras, embora nenhuma obrigação legal decorra atualmente de suas conclusões:

Requisitos de Transparência Aprimorados

O relatório propõe a divulgação pública dos métodos de aquisição de dados de treinamento de IA, práticas de segurança, resultados de testes pré-implantação e relatórios de impacto. Isso representa uma mudança fundamental em relação às práticas atuais, onde as empresas mantêm controle proprietário sobre os processos de desenvolvimento.

Sistema de Relato de Eventos Adversos

O relatório recomenda o relato obrigatório de incidentes relacionados à IA por desenvolvedores, mecanismos de relato voluntário para usuários e um sistema administrado pelo governo, semelhante a estruturas existentes na aviação e na saúde.

Quadro de Avaliação de Risco de Terceiros

O relatório afirma que as empresas “desincentivam a pesquisa de segurança ao ameaçar implicitamente banir pesquisadores independentes” e sugere um “porto seguro para avaliação independente de IA.” Essa abordagem poderia reduzir a capacidade das empresas de impedir pesquisas externas de segurança, enquanto exige programas formais de divulgação de vulnerabilidades.

Limiares Regulatórios Proporcionais

Movendo-se além de limiares baseados apenas em computação, o relatório propõe uma abordagem multifatorial que considera as capacidades do modelo, o impacto a jusante e os níveis de risco, com limiares adaptativos que podem ser atualizados à medida que a tecnologia evolui.

Filósofia Regulatória e Implementação

O relatório baseia-se em experiências passadas de governança de tecnologia, enfatizando a importância da intervenção política precoce. Os autores analisam casos de desenvolvimento da internet, regulação de produtos de consumo e políticas energéticas para apoiar sua abordagem regulatória.

Embora o relatório não especifique cronogramas de implementação, a história regulatória da Califórnia sugere ação legislativa potencial na sessão de 2025–2026, por meio de uma abordagem faseada: requisitos iniciais de transparência e relato, seguidos por estruturas de avaliação de terceiros e, por fim, uma regulação abrangente baseada em risco.

Preocupações Potenciais

O reconhecimento do relatório sobre um “dilema de evidência” captura as limitações inerentes à regulação de uma tecnologia ainda caracterizada por significativa opacidade.

Por exemplo, o relatório observa que “muitas empresas de IA nos Estados Unidos reconhecem a necessidade de transparência para essa tecnologia transformadora.” No entanto, também observa que grande parte da transparência é performativa e limitada pela “opacidade sistêmica em áreas-chave.”

Olhando para o Futuro

O Relatório da Califórnia sobre Política de IA de Fronteira representa a tentativa mais sofisticada de governança de IA baseada em evidências até o momento. Embora essas recomendações ainda não sejam lei, a influência da Califórnia na regulação de tecnologia sugere que esses princípios provavelmente serão implementados de alguma forma.

As organizações devem monitorar os desenvolvimentos legislativos, considerar participar de comentários públicos e implementar proativamente práticas recomendadas, além de desenvolver capacidades internas para a governança contínua da IA.

A interseção de uma regulação estadual abrangente e as capacidades de IA em rápida evolução requer estruturas de conformidade flexíveis que possam se adaptar a requisitos em mudança, mantendo a eficácia operacional.

More Insights

AI e Cibersegurança: Desafios da Responsabilidade

À medida que as organizações adotam a inteligência artificial (IA) para impulsionar a inovação e transformar operações, devem também lidar com a realidade de que a IA está rapidamente moldando o...

Abordagem Inteligente para a Governança da IA

O Sr. Sak afirma que a legislação iminente visa proteger os usuários de riscos potenciais da IA e remover barreiras legais que as leis existentes não conseguem abordar. A Tailândia elaborou princípios...

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...

Governança Ética e Inclusiva da IA na Indonésia

O Ministério da Comunicação e Digital da Indonésia reafirmou seu compromisso em incorporar princípios éticos e inclusão em suas políticas de inteligência artificial (IA). O vice-ministro Nezar Patria...

Texas Implementa a Lei de Governança Responsável de IA

Em 22 de junho de 2025, o governador Abbott assinou a Lei de Governança de Inteligência Artificial Responsável do Texas (TRAIGA), tornando o Texas o terceiro estado dos EUA a adotar uma legislação...