Transparência na Regulação da IA: O Novo Projeto de Lei da Califórnia

Este projeto de lei da Califórnia exigirá transparência das empresas de IA. Mas realmente impedirá desastres maiores?

Quando se trata de IA, conforme a Califórnia vai, a nação também vai. O maior estado dos EUA em população é também o centro da inovação em IA para todo o mundo, abrigando 32 das 50 principais empresas de IA. Esse tamanho e influência deram ao estado a capacidade de se tornar um pioneiro regulatório, definindo o tom para o resto do país em regulamentações ambientais, trabalhistas e de proteção ao consumidor — e mais recentemente, em IA também.

Agora, após a derrota dramática de uma proposta de moratória federal sobre a regulação da IA pelos estados, os formuladores de políticas da Califórnia veem uma janela de oportunidade limitada para estabelecer as bases para as leis de IA do resto do país. Na manhã de sábado, a Assembleia do Estado da Califórnia votou a favor do projeto de lei SB 53, que exigirá relatórios de transparência dos desenvolvedores de modelos de IA altamente poderosos.

O que é o Projeto de Lei SB 53?

O SB 53, que passou por ambas as partes da legislatura do estado, agora vai para o governador Gavin Newsom para ser vetado ou assinado. Os modelos visados representam a vanguarda da IA — sistemas generativos extremamente habilidosos que exigem grandes quantidades de dados e poder computacional, como o ChatGPT da OpenAI, o Gemini do Google, o Grok da xAI e o Claude da Anthropic.

A IA pode oferecer enormes benefícios, mas, como o projeto de lei pretende abordar, não está isenta de riscos. O SB 53 foca nos possíveis “riscos catastróficos” da IA, que incluem ataques biológicos habilitados por IA e sistemas fora de controle realizando ciberataques ou outras atividades criminosas que poderiam ameaçar a infraestrutura crítica.

Definindo Risco Catastrófico

O SB 53 define risco catastrófico como um “risco previsível e material” de um evento que causa mais de 50 mortes ou mais de um bilhão de dólares em danos. Embora o próprio projeto de lei de uma única estatal focado em aumentar a transparência provavelmente não seja suficiente para prevenir ciberataques devastadores, representa um esforço para regulamentar essa tecnologia em rápida evolução antes que ela ultrapasse nossos esforços de supervisão.

O SB 53 é o terceiro projeto de lei estadual a tentar focar especificamente na regulação dos riscos catastróficos da IA. O projeto exige que as empresas de IA desenvolvam estruturas de segurança que detalhem como abordam a redução de riscos catastróficos. As empresas teriam que publicar relatórios de segurança e segurança antes de implantar seus modelos e ter 15 dias para relatar “incidentes críticos de segurança” ao Escritório de Serviços de Emergência da Califórnia.

Controvérsias e Oportunidades

O foco do projeto de lei nos riscos catastróficos não está isento de controvérsias. A ideia de risco catastrófico vem dos campos da filosofia e da avaliação quantitativa de riscos. Riscos catastróficos são derivados de riscos existenciais, que ameaçam a sobrevivência da humanidade ou reduzem permanentemente nosso potencial como espécie.

Embora os riscos existenciais sejam claros, o que se enquadra na categoria de risco catastrófico, e a melhor maneira de priorizar esses riscos, depende de quem você perguntar. A lei do SB 53 é projetada para regular a IA antes que os problemas se tornem irreversíveis.

Se o governador Newsom assinar o SB 53, isso pode inspirar outras tentativas estaduais de regulação de IA por meio de uma estrutura similar e eventualmente encorajar a legislação federal de segurança em IA a avançar.

O debate sobre a SB 53 está relacionado a desacordos mais amplos sobre se os estados ou o governo federal devem conduzir a regulamentação de segurança da IA. A legislação da Califórnia é crucial para todo o país, uma vez que a maioria dessas empresas está baseada no estado.

A questão natural é se uma abordagem federal pode realmente acontecer, especialmente em tempos de impasse federal. No entanto, as inovações em IA não esperarão Washington.

O SB 53, embora possa ser insuficiente para abordar danos já existentes, é um passo importante na direção de prevenir catástrofes futuras.

More Insights

Inteligência Artificial Responsável: Guia Prático para Desenvolvedores .NET

A era da Inteligência Artificial (IA) está acontecendo agora, com aplicações em setores como bancos e saúde. No entanto, é crucial garantir que os sistemas de IA sejam justos e confiáveis, e para...

A Nova Lei de Transparência em IA da Califórnia

Os legisladores da Califórnia fizeram história ao aprovar uma lei inovadora de transparência em IA focada nos "modelos de fronteira", os sistemas de inteligência artificial mais avançados em...

Quatro Pilares para Sistemas de IA Responsáveis

À medida que a IA generativa transforma a forma como as empresas operam, a implementação de sistemas de IA sem as devidas proteções pode levar a falhas dispendiosas. Os quatro pilares das guardrails...

IA Responsável: Inclusão em Mercados Emergentes

A inteligência artificial está transformando rapidamente o mundo, mas os benefícios não estão chegando a todos de maneira igual, especialmente nos mercados emergentes. Para garantir que a IA funcione...