Proposta de Regulação Abrangente da IA na Califórnia

Relatório de Política de IA da Califórnia: Estruturas Regulatórias Propostas

Em 17 de junho de 2025, o Grupo de Trabalho Conjunto de Política da Califórnia sobre Modelos de IA de Fronteira publicou a versão final de seu relatório, “O Relatório da Califórnia sobre Política de IA de Fronteira”, que delineia uma estrutura de formulação de políticas para a inteligência artificial (IA) de fronteira.

Comissionado pelo Governador Gavin Newsom e redigido por pesquisadores e acadêmicos de IA reconhecidos, o relatório defende uma abordagem de “confiar, mas verificar”.

Recomendações Propostas

O relatório fornece recomendações que provavelmente informarão ações legislativas ou regulatórias futuras, embora nenhuma obrigação legal decorra atualmente de suas conclusões:

Requisitos de Transparência Aprimorados

O relatório propõe a divulgação pública dos métodos de aquisição de dados de treinamento de IA, práticas de segurança, resultados de testes pré-implantação e relatórios de impacto. Isso representa uma mudança fundamental em relação às práticas atuais, onde as empresas mantêm controle proprietário sobre os processos de desenvolvimento.

Sistema de Relato de Eventos Adversos

O relatório recomenda o relato obrigatório de incidentes relacionados à IA por desenvolvedores, mecanismos de relato voluntário para usuários e um sistema administrado pelo governo, semelhante a estruturas existentes na aviação e na saúde.

Quadro de Avaliação de Risco de Terceiros

O relatório afirma que as empresas “desincentivam a pesquisa de segurança ao ameaçar implicitamente banir pesquisadores independentes” e sugere um “porto seguro para avaliação independente de IA.” Essa abordagem poderia reduzir a capacidade das empresas de impedir pesquisas externas de segurança, enquanto exige programas formais de divulgação de vulnerabilidades.

Limiares Regulatórios Proporcionais

Movendo-se além de limiares baseados apenas em computação, o relatório propõe uma abordagem multifatorial que considera as capacidades do modelo, o impacto a jusante e os níveis de risco, com limiares adaptativos que podem ser atualizados à medida que a tecnologia evolui.

Filósofia Regulatória e Implementação

O relatório baseia-se em experiências passadas de governança de tecnologia, enfatizando a importância da intervenção política precoce. Os autores analisam casos de desenvolvimento da internet, regulação de produtos de consumo e políticas energéticas para apoiar sua abordagem regulatória.

Embora o relatório não especifique cronogramas de implementação, a história regulatória da Califórnia sugere ação legislativa potencial na sessão de 2025–2026, por meio de uma abordagem faseada: requisitos iniciais de transparência e relato, seguidos por estruturas de avaliação de terceiros e, por fim, uma regulação abrangente baseada em risco.

Preocupações Potenciais

O reconhecimento do relatório sobre um “dilema de evidência” captura as limitações inerentes à regulação de uma tecnologia ainda caracterizada por significativa opacidade.

Por exemplo, o relatório observa que “muitas empresas de IA nos Estados Unidos reconhecem a necessidade de transparência para essa tecnologia transformadora.” No entanto, também observa que grande parte da transparência é performativa e limitada pela “opacidade sistêmica em áreas-chave.”

Olhando para o Futuro

O Relatório da Califórnia sobre Política de IA de Fronteira representa a tentativa mais sofisticada de governança de IA baseada em evidências até o momento. Embora essas recomendações ainda não sejam lei, a influência da Califórnia na regulação de tecnologia sugere que esses princípios provavelmente serão implementados de alguma forma.

As organizações devem monitorar os desenvolvimentos legislativos, considerar participar de comentários públicos e implementar proativamente práticas recomendadas, além de desenvolver capacidades internas para a governança contínua da IA.

A interseção de uma regulação estadual abrangente e as capacidades de IA em rápida evolução requer estruturas de conformidade flexíveis que possam se adaptar a requisitos em mudança, mantendo a eficácia operacional.

More Insights

Aliança Escocesa de IA Destaca Ética em Inteligência Artificial

A Scottish AI Alliance lançou seu Relatório de Impacto 2024/2025, destacando um ano transformador de progresso na promoção de inteligência artificial confiável, ética e inclusiva na Escócia. O...

Controles de IA de Trump: Oportunidades e Desafios para o Mercado

A administração Trump está se preparando para novas restrições nas exportações de chips de IA para a Malásia e Tailândia, visando impedir que processadores avançados cheguem à China por meio de...

LLMOps: Potencializando IA Responsável com Python

Neste ambiente altamente competitivo, não é suficiente apenas implantar Modelos de Linguagem de Grande Escala (LLMs) — é necessário um robusto framework LLMOps para garantir a confiabilidade e o...

Fortalecendo a Proteção de Dados e a Governança de IA em Cingapura

Cingapura está respondendo proativamente aos desafios evolutivos impostos pelo uso de dados na era da inteligência artificial (IA), afirmou a Ministra de Comunicações e Informação, Josephine Teo. O...

Vigilância por IA e a Lacuna de Governança na Ásia-Pacífico

A tecnologia de vigilância alimentada por IA, especialmente o reconhecimento facial, é um exemplo clássico de tecnologias de uso duplo, promovidas como ferramentas de prevenção ao crime, mas...