Transparência e Segurança em Inteligência Artificial na Califórnia

Transparência na Lei de Inteligência Artificial de Fronteira (SB-53)

No dia 29 de setembro, o governador da Califórnia, Gavin Newsom, assinou a Lei de Transparência na Inteligência Artificial de Fronteira (TFAIA), tornando a Califórnia o primeiro estado a exigir divulgações de segurança padronizadas e públicas de desenvolvedores de modelos avançados de inteligência artificial (IA).

Na ausência de uma legislação federal abrangente sobre a segurança da IA, a Califórnia se junta a um número crescente de estados que buscam liderar questões de segurança da IA. A lei é o resultado de um longo debate sobre o escopo adequado da regulamentação da segurança da IA, especialmente após legislações anteriores não terem avançado devido a preocupações da indústria sobre possíveis inibições à inovação na IA.

Visão Geral da TFAIA

A TFAIA exige que os desenvolvedores divulguem como gerenciam os riscos de segurança e introduz novos mecanismos para transparência, responsabilidade e execução. Os desenvolvedores que não estiverem em conformidade com a lei quando entrar em vigor em janeiro de 2026 enfrentarão penalidades civis de até $1.000.000 por violação, aplicadas pelo Procurador Geral da Califórnia.

Quem está Coberto

A TFAIA se aplica a desenvolvedores de modelos de fronteira, definidos como modelos fundamentais treinados com uma quantidade de poder computacional superior a 10^26 operações (FLOPs). A lei impõe requisitos adicionais de transparência e responsabilidade a grandes desenvolvedores de fronteira cuja receita anual, incluindo afiliados, excedeu $500.000.000 no ano calendário anterior.

Publicação de um Quadro de Segurança Geral

Os grandes desenvolvedores devem publicar um quadro de segurança acessível que demonstre como incorporam normas nacionais, internacionais e melhores práticas de consenso da indústria. O quadro deve incluir práticas de cibersegurança para proteger os pesos do modelo não liberado contra modificação ou transferência não autorizada.

Transparência no Lançamento

Quando um novo modelo é lançado, os desenvolvedores devem publicar um relatório de transparência que identifique a data de lançamento, modalidades, usos pretendidos e quaisquer restrições de implantação. Devem também resumir suas avaliações de risco catastrófico e divulgar os resultados.

Notificação de Incidentes Críticos de Segurança

Os desenvolvedores devem notificar o Escritório de Serviços de Emergência da Califórnia sobre qualquer “incidente crítico de segurança” dentro de 15 dias da descoberta. Se o incidente apresentar um risco iminente de morte ou lesão grave, a divulgação deve ser feita dentro de 24 horas.

Proteções para Denunciantes

A lei estabelece proteções robustas para denunciantes, proibindo retaliações e exigindo que os desenvolvedores estabeleçam canais de denúncia anônimos. O Procurador Geral da Califórnia publicará relatórios anuais sobre a atividade de denunciantes a partir de 2027.

Consórcio “CalCompute”

A TFAIA direciona a criação de um consórcio para projetar um cluster de computação em nuvem pública apoiado pelo estado, denominado CalCompute, que fornecerá capacidades de computação avançadas para apoiar inovações de IA seguras e sustentáveis no interesse público.

Atualizações Contínuas da Lei

A lei reconhece que a fronteira da IA está em constante evolução, e, portanto, a legislação também deve evoluir. A Departamento de Tecnologia da Califórnia deve revisar anualmente as definições de “modelo de fronteira” e “desenvolvedor de fronteira”.

Próximos Passos na Regulamentação da Segurança da IA

Outras estatutos específicos de IA entrarão em vigor na Califórnia em 2025 e 2026, incluindo mandatos de transparência que exigirãodivulgar dados de treinamento e embutir marcas d’água invisíveis em conteúdo gerado por IA. O Congresso continua debatendo a possibilidade de impor um “moratório” federal que poderia preterir a maioria das legislações estaduais sobre IA.

More Insights

Colaboração e Competição na Governança de IA

O projeto Red Cell trabalha para desafiar suposições e promover abordagens alternativas para os desafios de política externa e de segurança nacional dos EUA. A inovação em inteligência artificial (IA)...

Política Nacional de IA do Paquistão: Rumo a um Mercado de $2,7 Bilhões

O Paquistão introduziu uma ambiciosa Política Nacional de IA com o objetivo de construir um mercado doméstico de IA de US$ 2,7 bilhões em cinco anos. A política se baseia em seis pilares principais:...

Implementando a Governança Ética em IA

O guia mais recente do nosso AI Futures Lab destaca a importância da governança ética em IA, enfatizando a necessidade urgente de considerar questões éticas em todas as iniciativas de transformação de...

Estratégia Abrangente de IA para a Educação Superior

A inteligência artificial está reformulando o aprendizado, o ensino e as operações nas instituições de ensino superior, oferecendo um companheiro de aprendizado personalizado que apoia o sucesso dos...

A Retórica da Revolução da IA: Desafios e Oportunidades

A transformação econômica da IA começou, com empresas como IBM e Salesforce demitindo funcionários e substituindo-os por chatbots de IA. Com a adoção acelerada da IA, governos devem agir rapidamente...

Ética do Trabalho Digital: Responsabilidade na Era da IA

A ética do trabalho digital está se tornando uma preocupação crescente à medida que a inteligência artificial é cada vez mais utilizada para tarefas que antes eram exclusivas dos humanos. Os líderes...