Transparência na Lei de Inteligência Artificial de Fronteira (SB-53)
No dia 29 de setembro, o governador da Califórnia, Gavin Newsom, assinou a Lei de Transparência na Inteligência Artificial de Fronteira (TFAIA), tornando a Califórnia o primeiro estado a exigir divulgações de segurança padronizadas e públicas de desenvolvedores de modelos avançados de inteligência artificial (IA).
Na ausência de uma legislação federal abrangente sobre a segurança da IA, a Califórnia se junta a um número crescente de estados que buscam liderar questões de segurança da IA. A lei é o resultado de um longo debate sobre o escopo adequado da regulamentação da segurança da IA, especialmente após legislações anteriores não terem avançado devido a preocupações da indústria sobre possíveis inibições à inovação na IA.
Visão Geral da TFAIA
A TFAIA exige que os desenvolvedores divulguem como gerenciam os riscos de segurança e introduz novos mecanismos para transparência, responsabilidade e execução. Os desenvolvedores que não estiverem em conformidade com a lei quando entrar em vigor em janeiro de 2026 enfrentarão penalidades civis de até $1.000.000 por violação, aplicadas pelo Procurador Geral da Califórnia.
Quem está Coberto
A TFAIA se aplica a desenvolvedores de modelos de fronteira, definidos como modelos fundamentais treinados com uma quantidade de poder computacional superior a 10^26 operações (FLOPs). A lei impõe requisitos adicionais de transparência e responsabilidade a grandes desenvolvedores de fronteira cuja receita anual, incluindo afiliados, excedeu $500.000.000 no ano calendário anterior.
Publicação de um Quadro de Segurança Geral
Os grandes desenvolvedores devem publicar um quadro de segurança acessível que demonstre como incorporam normas nacionais, internacionais e melhores práticas de consenso da indústria. O quadro deve incluir práticas de cibersegurança para proteger os pesos do modelo não liberado contra modificação ou transferência não autorizada.
Transparência no Lançamento
Quando um novo modelo é lançado, os desenvolvedores devem publicar um relatório de transparência que identifique a data de lançamento, modalidades, usos pretendidos e quaisquer restrições de implantação. Devem também resumir suas avaliações de risco catastrófico e divulgar os resultados.
Notificação de Incidentes Críticos de Segurança
Os desenvolvedores devem notificar o Escritório de Serviços de Emergência da Califórnia sobre qualquer “incidente crítico de segurança” dentro de 15 dias da descoberta. Se o incidente apresentar um risco iminente de morte ou lesão grave, a divulgação deve ser feita dentro de 24 horas.
Proteções para Denunciantes
A lei estabelece proteções robustas para denunciantes, proibindo retaliações e exigindo que os desenvolvedores estabeleçam canais de denúncia anônimos. O Procurador Geral da Califórnia publicará relatórios anuais sobre a atividade de denunciantes a partir de 2027.
Consórcio “CalCompute”
A TFAIA direciona a criação de um consórcio para projetar um cluster de computação em nuvem pública apoiado pelo estado, denominado CalCompute, que fornecerá capacidades de computação avançadas para apoiar inovações de IA seguras e sustentáveis no interesse público.
Atualizações Contínuas da Lei
A lei reconhece que a fronteira da IA está em constante evolução, e, portanto, a legislação também deve evoluir. A Departamento de Tecnologia da Califórnia deve revisar anualmente as definições de “modelo de fronteira” e “desenvolvedor de fronteira”.
Próximos Passos na Regulamentação da Segurança da IA
Outras estatutos específicos de IA entrarão em vigor na Califórnia em 2025 e 2026, incluindo mandatos de transparência que exigirãodivulgar dados de treinamento e embutir marcas d’água invisíveis em conteúdo gerado por IA. O Congresso continua debatendo a possibilidade de impor um “moratório” federal que poderia preterir a maioria das legislações estaduais sobre IA.