O que as regulamentações mais rigorosas sobre IA do país mudam em 2026, segundo especialistas legais
Duas leis estaduais importantes sobre IA estão em vigor enquanto a regulamentação federal em torno da IA permanece incerta. A administração atual renovou ataques à legislação estadual sobre IA, e pesquisadores ainda estão insatisfeitos com as leis atuais.
Estamos a poucas semanas de 2026 e a administração ainda não propôs legislação federal sobre IA. Ao mesmo tempo, leis pioneiras de segurança em IA na Califórnia e em Nova York entraram em vigor. No entanto, uma ordem executiva de dezembro e seu subsequente grupo de trabalho renovaram os ataques às leis estaduais de IA.
Leis de segurança em IA
A lei de segurança em IA da Califórnia, SB-53, que entrou em vigor em 1º de janeiro, exige que desenvolvedores de modelos publiquem como mitigam os maiores riscos impostos pela IA e relatem incidentes de segurança envolvendo seus modelos, sob pena de multas de até US$ 1 milhão se não cumprirem. Embora não seja tão abrangente quanto legislações tentadas anteriormente no estado, a nova lei é praticamente a única em um cenário altamente não regulamentado de IA.
A lei RAISE, aprovada em Nova York no final de dezembro, é semelhante à SB-53, mas estabelece requisitos de notificação para incidentes de segurança envolvendo modelos de todos os tamanhos, com um limite de multa de US$ 3 milhões após a primeira violação. Enquanto a SB-53 exige que as empresas notifiquem o estado dentro de 15 dias após um incidente de segurança, a RAISE exige notificação em 72 horas.
Desafios enfrentados
A versão anterior da SB-53, SB-1047, teria exigido que laboratórios de IA testassem modelos que custam mais de US$ 100 milhões e desenvolvessem um mecanismo de desligamento para controlá-los caso se comportassem inadequadamente. Essa proposta foi rejeitada devido a argumentos de que ela sufocaria a criação de empregos e a inovação.
A SB-53 adota uma abordagem mais branda, focando mais na transparência e na documentação do que no dano real. A lei cria requisitos para salvaguardas em torno de riscos catastróficos, incluindo ataques cibernéticos e biológicos, e situações em que os desenvolvedores perdem o controle sobre um sistema de IA.
Limites renovados na legislação estadual de IA
A administração atual e as empresas que argumentam contra a regulamentação de segurança da IA afirmam que isso desaceleraria o desenvolvimento e prejudicaria empregos no setor tecnológico. Em 11 de dezembro, foi assinada uma ordem executiva que expressa a intenção de centralizar as leis de IA em nível federal, alegando que a regulamentação excessiva dos estados prejudica a inovação.
Um novo grupo de trabalho de litígios sobre IA foi anunciado para desafiar leis estaduais que não estejam alinhadas com um “quadro de política nacional minimamente oneroso para a IA”. Isso renova uma tentativa anterior do Congresso de proibir estados de aprovar regulamentações de IA por 10 anos, uma proposta que foi derrotada.
Implicações para a segurança da IA
A SB-53 também exige que empresas de IA protejam denunciantes. Isso se destaca como uma preocupação maior para muitas empresas de tecnologia, dado o turnover no setor. As exigências de relatório da SB-53 fazem com que as empresas se preocupem com a criação de material que poderia ser usado em processos coletivos.
Embora a SB-53 não exija que laboratórios de IA testem seus modelos por terceiros, a lei RAISE de Nova York exige auditorias anuais por terceiros. Especialistas acreditam que, embora a SB-53 não imponha novas cargas, ela representa um progresso na regulamentação de segurança em IA.
Conclusão
A regulamentação da SB-53 é um primeiro passo em direção à transparência e à primeira aplicação de riscos catastróficos nos EUA. Apesar das regulamentações estaduais e federais, a governança já se tornou uma prioridade maior para as empresas de IA, impulsionadas por suas responsabilidades e pela pressão de clientes e investidores. A transparência sozinha não torna os sistemas seguros, mas é um passo crucial para o futuro.