Transparência e Segurança em Inteligência Artificial na Califórnia

Transparência na Lei de Inteligência Artificial de Fronteira (SB-53)

No dia 29 de setembro, o governador da Califórnia, Gavin Newsom, assinou a Lei de Transparência na Inteligência Artificial de Fronteira (TFAIA), tornando a Califórnia o primeiro estado a exigir divulgações de segurança padronizadas e públicas de desenvolvedores de modelos avançados de inteligência artificial (IA).

Na ausência de uma legislação federal abrangente sobre a segurança da IA, a Califórnia se junta a um número crescente de estados que buscam liderar questões de segurança da IA. A lei é o resultado de um longo debate sobre o escopo adequado da regulamentação da segurança da IA, especialmente após legislações anteriores não terem avançado devido a preocupações da indústria sobre possíveis inibições à inovação na IA.

Visão Geral da TFAIA

A TFAIA exige que os desenvolvedores divulguem como gerenciam os riscos de segurança e introduz novos mecanismos para transparência, responsabilidade e execução. Os desenvolvedores que não estiverem em conformidade com a lei quando entrar em vigor em janeiro de 2026 enfrentarão penalidades civis de até $1.000.000 por violação, aplicadas pelo Procurador Geral da Califórnia.

Quem está Coberto

A TFAIA se aplica a desenvolvedores de modelos de fronteira, definidos como modelos fundamentais treinados com uma quantidade de poder computacional superior a 10^26 operações (FLOPs). A lei impõe requisitos adicionais de transparência e responsabilidade a grandes desenvolvedores de fronteira cuja receita anual, incluindo afiliados, excedeu $500.000.000 no ano calendário anterior.

Publicação de um Quadro de Segurança Geral

Os grandes desenvolvedores devem publicar um quadro de segurança acessível que demonstre como incorporam normas nacionais, internacionais e melhores práticas de consenso da indústria. O quadro deve incluir práticas de cibersegurança para proteger os pesos do modelo não liberado contra modificação ou transferência não autorizada.

Transparência no Lançamento

Quando um novo modelo é lançado, os desenvolvedores devem publicar um relatório de transparência que identifique a data de lançamento, modalidades, usos pretendidos e quaisquer restrições de implantação. Devem também resumir suas avaliações de risco catastrófico e divulgar os resultados.

Notificação de Incidentes Críticos de Segurança

Os desenvolvedores devem notificar o Escritório de Serviços de Emergência da Califórnia sobre qualquer “incidente crítico de segurança” dentro de 15 dias da descoberta. Se o incidente apresentar um risco iminente de morte ou lesão grave, a divulgação deve ser feita dentro de 24 horas.

Proteções para Denunciantes

A lei estabelece proteções robustas para denunciantes, proibindo retaliações e exigindo que os desenvolvedores estabeleçam canais de denúncia anônimos. O Procurador Geral da Califórnia publicará relatórios anuais sobre a atividade de denunciantes a partir de 2027.

Consórcio “CalCompute”

A TFAIA direciona a criação de um consórcio para projetar um cluster de computação em nuvem pública apoiado pelo estado, denominado CalCompute, que fornecerá capacidades de computação avançadas para apoiar inovações de IA seguras e sustentáveis no interesse público.

Atualizações Contínuas da Lei

A lei reconhece que a fronteira da IA está em constante evolução, e, portanto, a legislação também deve evoluir. A Departamento de Tecnologia da Califórnia deve revisar anualmente as definições de “modelo de fronteira” e “desenvolvedor de fronteira”.

Próximos Passos na Regulamentação da Segurança da IA

Outras estatutos específicos de IA entrarão em vigor na Califórnia em 2025 e 2026, incluindo mandatos de transparência que exigirãodivulgar dados de treinamento e embutir marcas d’água invisíveis em conteúdo gerado por IA. O Congresso continua debatendo a possibilidade de impor um “moratório” federal que poderia preterir a maioria das legislações estaduais sobre IA.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...