Regulamentação de Modelos Fundamentais: Relatório do Grupo de Trabalho da Califórnia

Relatório do Grupo de Trabalho da Califórnia sobre Regulação de Modelos Fundamentais de IA

No dia 18 de março, o Grupo de Trabalho Conjunto de Política da Califórnia sobre Modelos Fundamentais de IA (o “Grupo de Trabalho”) divulgou seu relatório preliminar sobre a regulação de modelos fundamentais, com o objetivo de fornecer uma “base baseada em evidências para decisões políticas de IA” na Califórnia que “assegurem que essas poderosas tecnologias beneficiem a sociedade globalmente, enquanto gerenciam de forma razoável os riscos emergentes.” O Grupo de Trabalho foi estabelecido pelo governador da Califórnia, Gavin Newsom (D), em setembro de 2024, após seu vetar o Projeto de Lei SB 1047, que visava a segurança e inovação de modelos de IA.

O relatório ressalta que as “capacidades dos modelos fundamentais melhoraram rapidamente” desde o veto do SB 1047 e que a “oportunidade única” da Califórnia para moldar a governança de IA “pode não permanecer aberta indefinidamente.” O documento avalia a transparência, a avaliação de riscos por terceiros e os requisitos de reporte de eventos adversos como componentes-chave para a regulação de modelos fundamentais.

Requisitos de Transparência

O relatório conclui que os requisitos de transparência para modelos fundamentais são uma “base necessária” para a regulação de IA e recomenda que os formuladores de políticas “priorizem a transparência voltada ao público para melhor promover a responsabilidade.” Especificamente, recomenda-se que os requisitos de transparência foquem em cinco categorias de informações sobre modelos fundamentais:

  1. Aquisição de dados de treinamento
  2. Práticas de segurança do desenvolvedor
  3. Práticas de segurança do desenvolvedor
  4. Testes pré-implantação por desenvolvedores e terceiros
  5. Impactos subsequentes, incluindo divulgações de entidades que hospedam modelos fundamentais para download ou uso.

Avaliações de Risco por Terceiros

O relatório observa que a transparência “é frequentemente insuficiente e requer mecanismos de verificação suplementares” para a responsabilidade. Assim, as avaliações de risco por terceiros são “essenciais” para “criar incentivos para que os desenvolvedores aumentem a segurança de seus modelos.” Para apoiar avaliações eficazes de IA por terceiros, o relatório sugere que os formuladores de políticas considerem estabelecer refúgios seguros que isentem a pesquisa de segurança de interesse público e “mecanismos de comunicação” para relatar rapidamente vulnerabilidades identificadas a desenvolvedores e partes afetadas.

Proteções de Denunciantes

Além disso, o relatório avalia a necessidade de proteções para denunciantes que são funcionários e contratados de desenvolvedores de modelos fundamentais. O documento aconselha os formuladores a “considerar proteções que cubram uma gama mais ampla de atividades dos desenvolvedores de IA,” como falhas em seguir a política de segurança de IA da empresa, mesmo que a conduta reportada não viole leis existentes.

Requisitos de Reporte de Eventos Adversos

O relatório encontra que o reporte de eventos adversos, ou seja, sistemas de monitoramento proativos que coletam informações sobre eventos ou incidentes de repórteres mandatários ou voluntários, é um “primeiro passo crítico” na avaliação dos custos e benefícios da regulação de IA. O relatório recomenda que os sistemas de reporte de modelos fundamentais:

  1. Forneçam relatórios a agências que tenham autoridade e expertise relevantes para abordar danos identificados, com a discrição de “compartilhar descobertas anonimizadas dos relatórios com outras partes interessadas da indústria.”
  2. Utilizem critérios de reporte de eventos adversos “inicialmente estreitos, baseados em um conjunto de danos bem definidos” que podem ser revisados ao longo do tempo.
  3. Adotem uma “abordagem híbrida” que combine requisitos de reporte mandatário para partes críticas da “pilha de IA” com reporte voluntário de usuários subsequentes.

Limiares para Regulação de Modelos Fundamentais

Por fim, o relatório avalia várias opções para definir limiares que acionariam os requisitos de modelos fundamentais, incluindo limiares “a nível de desenvolvedor” (por exemplo, número de funcionários), limiares “a nível de custo” (por exemplo, custos relacionados à computação de treinamento de modelos), limiares “a nível de modelo” com base no desempenho em benchmarks chave, e limiares “a nível de impacto” com base no número de usuários comerciais do modelo. O relatório conclui que os “limiares de computação,” como o limiar de 1025 operações de ponto flutuante por segundo (“FLOPS”) de poder computacional para treinamento de modelos do Ato de IA da UE, são “atualmente os mais atraentes” que devem ser utilizados em combinação com outros métricas.

O Grupo de Trabalho busca input público sobre o relatório por meio de seu site, com respostas devido até 8 de abril de 2025. A versão final do relatório deverá ser divulgada até junho de 2025, antes do encerramento da legislatura da Califórnia em setembro.

More Insights

Governo Britânico Sob Crítica pela Implementação de Reconhecimento Facial

O governo do Reino Unido tem sido criticado pela implementação de tecnologia de reconhecimento facial sem um quadro legal abrangente. O Instituto Ada Lovelace alertou que o uso crescente do...

A Explosão de Startups de Governança na Era da Inteligência Artificial

Com o crescimento da tecnologia de inteligência artificial (IA), as soluções de governança estão em alta demanda. A indústria global de governança de IA, avaliada em 890 milhões de dólares no ano...

O Papel dos Tribunais na Regulação da Inteligência Artificial

A regulação da inteligência artificial (IA) é desigual em todo o mundo, com algumas jurisdições já possuindo regulamentações abrangentes, enquanto outras resistem à legislação vinculativa. Os...

A Liderança Legal na Governança da IA: Agindo Antes que seja Tarde

Neste artigo da Help Net Security, Brooke Johnson, Conselheira Jurídica Chefe da Ivanti, discute as responsabilidades legais na governança da IA e a importância da colaboração entre departamentos para...

Mudança nas Regras da IA: Implicações e Desafios

A Câmara dos Representantes recentemente aprovou um grande projeto de lei que impede os estados de regular modelos de inteligência artificial por 10 anos. Isso preocupa os legisladores estaduais, que...