Relatório do Grupo de Trabalho da Califórnia sobre Regulação de Modelos Fundamentais de IA
No dia 18 de março, o Grupo de Trabalho Conjunto de Política da Califórnia sobre Modelos Fundamentais de IA (o “Grupo de Trabalho”) divulgou seu relatório preliminar sobre a regulação de modelos fundamentais, com o objetivo de fornecer uma “base baseada em evidências para decisões políticas de IA” na Califórnia que “assegurem que essas poderosas tecnologias beneficiem a sociedade globalmente, enquanto gerenciam de forma razoável os riscos emergentes.” O Grupo de Trabalho foi estabelecido pelo governador da Califórnia, Gavin Newsom (D), em setembro de 2024, após seu vetar o Projeto de Lei SB 1047, que visava a segurança e inovação de modelos de IA.
O relatório ressalta que as “capacidades dos modelos fundamentais melhoraram rapidamente” desde o veto do SB 1047 e que a “oportunidade única” da Califórnia para moldar a governança de IA “pode não permanecer aberta indefinidamente.” O documento avalia a transparência, a avaliação de riscos por terceiros e os requisitos de reporte de eventos adversos como componentes-chave para a regulação de modelos fundamentais.
Requisitos de Transparência
O relatório conclui que os requisitos de transparência para modelos fundamentais são uma “base necessária” para a regulação de IA e recomenda que os formuladores de políticas “priorizem a transparência voltada ao público para melhor promover a responsabilidade.” Especificamente, recomenda-se que os requisitos de transparência foquem em cinco categorias de informações sobre modelos fundamentais:
- Aquisição de dados de treinamento
- Práticas de segurança do desenvolvedor
- Práticas de segurança do desenvolvedor
- Testes pré-implantação por desenvolvedores e terceiros
- Impactos subsequentes, incluindo divulgações de entidades que hospedam modelos fundamentais para download ou uso.
Avaliações de Risco por Terceiros
O relatório observa que a transparência “é frequentemente insuficiente e requer mecanismos de verificação suplementares” para a responsabilidade. Assim, as avaliações de risco por terceiros são “essenciais” para “criar incentivos para que os desenvolvedores aumentem a segurança de seus modelos.” Para apoiar avaliações eficazes de IA por terceiros, o relatório sugere que os formuladores de políticas considerem estabelecer refúgios seguros que isentem a pesquisa de segurança de interesse público e “mecanismos de comunicação” para relatar rapidamente vulnerabilidades identificadas a desenvolvedores e partes afetadas.
Proteções de Denunciantes
Além disso, o relatório avalia a necessidade de proteções para denunciantes que são funcionários e contratados de desenvolvedores de modelos fundamentais. O documento aconselha os formuladores a “considerar proteções que cubram uma gama mais ampla de atividades dos desenvolvedores de IA,” como falhas em seguir a política de segurança de IA da empresa, mesmo que a conduta reportada não viole leis existentes.
Requisitos de Reporte de Eventos Adversos
O relatório encontra que o reporte de eventos adversos, ou seja, sistemas de monitoramento proativos que coletam informações sobre eventos ou incidentes de repórteres mandatários ou voluntários, é um “primeiro passo crítico” na avaliação dos custos e benefícios da regulação de IA. O relatório recomenda que os sistemas de reporte de modelos fundamentais:
- Forneçam relatórios a agências que tenham autoridade e expertise relevantes para abordar danos identificados, com a discrição de “compartilhar descobertas anonimizadas dos relatórios com outras partes interessadas da indústria.”
- Utilizem critérios de reporte de eventos adversos “inicialmente estreitos, baseados em um conjunto de danos bem definidos” que podem ser revisados ao longo do tempo.
- Adotem uma “abordagem híbrida” que combine requisitos de reporte mandatário para partes críticas da “pilha de IA” com reporte voluntário de usuários subsequentes.
Limiares para Regulação de Modelos Fundamentais
Por fim, o relatório avalia várias opções para definir limiares que acionariam os requisitos de modelos fundamentais, incluindo limiares “a nível de desenvolvedor” (por exemplo, número de funcionários), limiares “a nível de custo” (por exemplo, custos relacionados à computação de treinamento de modelos), limiares “a nível de modelo” com base no desempenho em benchmarks chave, e limiares “a nível de impacto” com base no número de usuários comerciais do modelo. O relatório conclui que os “limiares de computação,” como o limiar de 1025 operações de ponto flutuante por segundo (“FLOPS”) de poder computacional para treinamento de modelos do Ato de IA da UE, são “atualmente os mais atraentes” que devem ser utilizados em combinação com outros métricas.
O Grupo de Trabalho busca input público sobre o relatório por meio de seu site, com respostas devido até 8 de abril de 2025. A versão final do relatório deverá ser divulgada até junho de 2025, antes do encerramento da legislatura da Califórnia em setembro.