Novas Leis de IA em 2026: Impactos e Desafios segundo Especialistas Legais

O que as regulamentações mais rigorosas sobre IA do país mudam em 2026, segundo especialistas legais

Duas leis estaduais importantes sobre IA estão em vigor enquanto a regulamentação federal em torno da IA permanece incerta. A administração atual renovou ataques à legislação estadual sobre IA, e pesquisadores ainda estão insatisfeitos com as leis atuais.

Estamos a poucas semanas de 2026 e a administração ainda não propôs legislação federal sobre IA. Ao mesmo tempo, leis pioneiras de segurança em IA na Califórnia e em Nova York entraram em vigor. No entanto, uma ordem executiva de dezembro e seu subsequente grupo de trabalho renovaram os ataques às leis estaduais de IA.

Leis de segurança em IA

A lei de segurança em IA da Califórnia, SB-53, que entrou em vigor em 1º de janeiro, exige que desenvolvedores de modelos publiquem como mitigam os maiores riscos impostos pela IA e relatem incidentes de segurança envolvendo seus modelos, sob pena de multas de até US$ 1 milhão se não cumprirem. Embora não seja tão abrangente quanto legislações tentadas anteriormente no estado, a nova lei é praticamente a única em um cenário altamente não regulamentado de IA.

A lei RAISE, aprovada em Nova York no final de dezembro, é semelhante à SB-53, mas estabelece requisitos de notificação para incidentes de segurança envolvendo modelos de todos os tamanhos, com um limite de multa de US$ 3 milhões após a primeira violação. Enquanto a SB-53 exige que as empresas notifiquem o estado dentro de 15 dias após um incidente de segurança, a RAISE exige notificação em 72 horas.

Desafios enfrentados

A versão anterior da SB-53, SB-1047, teria exigido que laboratórios de IA testassem modelos que custam mais de US$ 100 milhões e desenvolvessem um mecanismo de desligamento para controlá-los caso se comportassem inadequadamente. Essa proposta foi rejeitada devido a argumentos de que ela sufocaria a criação de empregos e a inovação.

A SB-53 adota uma abordagem mais branda, focando mais na transparência e na documentação do que no dano real. A lei cria requisitos para salvaguardas em torno de riscos catastróficos, incluindo ataques cibernéticos e biológicos, e situações em que os desenvolvedores perdem o controle sobre um sistema de IA.

Limites renovados na legislação estadual de IA

A administração atual e as empresas que argumentam contra a regulamentação de segurança da IA afirmam que isso desaceleraria o desenvolvimento e prejudicaria empregos no setor tecnológico. Em 11 de dezembro, foi assinada uma ordem executiva que expressa a intenção de centralizar as leis de IA em nível federal, alegando que a regulamentação excessiva dos estados prejudica a inovação.

Um novo grupo de trabalho de litígios sobre IA foi anunciado para desafiar leis estaduais que não estejam alinhadas com um “quadro de política nacional minimamente oneroso para a IA”. Isso renova uma tentativa anterior do Congresso de proibir estados de aprovar regulamentações de IA por 10 anos, uma proposta que foi derrotada.

Implicações para a segurança da IA

A SB-53 também exige que empresas de IA protejam denunciantes. Isso se destaca como uma preocupação maior para muitas empresas de tecnologia, dado o turnover no setor. As exigências de relatório da SB-53 fazem com que as empresas se preocupem com a criação de material que poderia ser usado em processos coletivos.

Embora a SB-53 não exija que laboratórios de IA testem seus modelos por terceiros, a lei RAISE de Nova York exige auditorias anuais por terceiros. Especialistas acreditam que, embora a SB-53 não imponha novas cargas, ela representa um progresso na regulamentação de segurança em IA.

Conclusão

A regulamentação da SB-53 é um primeiro passo em direção à transparência e à primeira aplicação de riscos catastróficos nos EUA. Apesar das regulamentações estaduais e federais, a governança já se tornou uma prioridade maior para as empresas de IA, impulsionadas por suas responsabilidades e pela pressão de clientes e investidores. A transparência sozinha não torna os sistemas seguros, mas é um passo crucial para o futuro.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...