California e Nova York Implementam as Leis de IA Mais Rigorosas
California e Nova York ativaram as regras de IA mais rigorosas do país, transformando salvaguardas voluntárias em obrigações executáveis para as empresas que desenvolvem e implantam modelos em larga escala. Especialistas legais afirmam que essa mudança traz maior responsabilidade em relação à transparência e segurança, sem congelar a inovação, enquanto estabelece um inevitável conflito com autoridades federais que buscam uma estrutura única e menos rigorosa.
O Que Muda
A responsabilidade é o primeiro aspecto a ser alterado. Desenvolvedores de modelos e grandes plataformas de IA devem divulgar como pretendem mitigar riscos catastróficos, relatar incidentes graves prontamente e proteger denunciantes que revelam problemas. O resultado é uma nova linha de base de conformidade para qualquer empresa de IA com ambições nacionais, pois ignorar os dois principais mercados tecnológicos do país não é uma opção viável.
O Que Muda Sob a SB 53 da Califórnia e a Lei RAISE de Nova York
A SB 53 da Califórnia exige que os desenvolvedores publiquem planos de mitigação de riscos para seus modelos mais capazes e relatem “incidentes de segurança” que poderiam permitir intrusões cibernéticas ou danos químicos, biológicos, radiológicos ou nucleares. As empresas têm 15 dias para notificar o estado e enfrentam multas de até $1 milhão por não conformidade.
A Lei RAISE de Nova York reflete as regras de divulgação, mas é mais rápida e rigorosa na aplicação. Incidentes de segurança devem ser relatados dentro de 72 horas, e as multas podem chegar a $3 milhões após uma primeira violação. Também introduz auditorias anuais de terceiros, adicionando um controle independente que a Califórnia não exige.
Ambas as leis visam empresas com mais de $500 milhões em receita anual bruta, abrangendo empresas de tecnologia de grande porte e grandes fornecedores de IA, enquanto isentam muitas startups em estágio inicial. Os reguladores optaram por uma abordagem focada na transparência após uma proposta anterior mais robusta da Califórnia ter falhado.
Implicações para Desenvolvedores de IA e Empresas
Na prática, as novas regras forçam a construção de governança de segurança ao invés de interromper P&D. As empresas precisam de manuais de resposta a incidentes que definam o que conta como um evento de IA reportável. Espera-se um aumento no rigor dos testes de segurança, registro centralizado do comportamento do modelo e documentação formal que as equipes de produto e assessores jurídicos possam respaldar.
Embora muitas empresas globais já estejam alinhadas com a Lei de IA da UE, especialistas legais afirmam que o impacto marginal pode ser menor do que o temido, especialmente nas divulgações. Essas leis marcam um passo crucial ao tornar a supervisão de riscos catastróficos executável nos Estados Unidos.
Desafios e Conclusão
A administração federal sinalizou um impulso para centralizar a governança da IA, alertando que um mosaico de regras estaduais poderia desacelerar a inovação e criar confusão de conformidade. No entanto, a preempção não é uma conclusão garantida. Os tribunais muitas vezes permitem que os estados estabeleçam padrões mais rigorosos na ausência de uma estatuta federal que os anule.
As novas regras priorizam a transparência e a rastreabilidade sobre restrições técnicas rigorosas. A auditoria independente de Nova York eleva o padrão, mas nenhuma das leis atualmente exige avaliações de modelos por terceiros antes da liberação, deixando flexibilidade significativa para os laboratórios, enquanto torna mais arriscado ignorar modos de falha catastróficos.
É aconselhável tratar essas leis como a base mínima para a conformidade. Construir um registro centralizado de incidentes, expandir a cobertura de testes de segurança para usos catastróficos, e fortalecer a supervisão de denunciantes são passos necessários. A transparência, embora não garanta sistemas seguros, se tornou uma exigência, mudando a forma como as empresas líderes de IA irão operar.