Com a Lei RAISE, Nova York Alinha-se com a Califórnia nas Leis de IA de Fronteira
No meio de um debate nacional sobre leis de IA, Nova York se tornou o segundo estado a impor novos requisitos sobre modelos avançados de IA e as empresas que os desenvolvem. Em vez de contribuir para um mosaico de leis estaduais que varia desde discriminação algorítmica até segurança infantil, que alguns temem que possa surgir nos próximos meses, a Lei de Segurança e Educação em IA Responsável (RAISE) segue um caminho diferente: harmoniza-se diretamente com as regras existentes.
A RAISE, que se originou com um membro da assembleia e um senador do estado, adota o paradigma de “confiar, mas verificar” estabelecido pela SB-53, a lei da Califórnia que se tornou a primeira lei de IA de fronteira nos EUA em setembro passado. Ambas as leis criam um conjunto central de requisitos de transparência, exigindo que os desenvolvedores publiquem estruturas de risco para IA de fronteira e relatem incidentes de segurança às autoridades estaduais.
Como a Lei se Baseia na SB-53
A Lei RAISE, que entrará em vigor em 1º de janeiro de 2027, baseia-se fortemente na estrutura de “confiar, mas verificar” da SB-53; em muitos casos, copia diretamente o texto da lei californiana. A maioria das constatações legislativas, que moldam os objetivos do projeto e fornecem orientação interpretativa sobre o que a legislatura acreditava e pretendia, são as mesmas. A RAISE empresta muitas das definições-chave da SB-53, incluindo aquelas para risco catastrófico, incidente de segurança crítica e modelo fundamental. Ambas as leis aplicam seus requisitos mais rigorosos a modelos de IA treinados em mais de 1026 FLOPS e empresas com receita bruta anual superior a US$ 500 milhões no ano anterior.
No centro de ambas as leis está um conjunto idêntico de requisitos de transparência para o desenvolvimento de IA de fronteira. Assim como a SB-53, a RAISE exige que as empresas publiquem sua abordagem para testes de segurança, mitigação de riscos, resposta a incidentes e controles de cibersegurança. As empresas podem escolher seus métodos e padrões, mas devem aderir às promessas que fizeram. Elas também devem relatar danos severos causados pela IA, principalmente aqueles envolvendo morte, lesões corporais ou danos econômicos significativos, além de comportamentos enganosos do modelo que aumentem materialmente o risco catastrófico.
Notavelmente, a Lei RAISE, assim como a SB-53, exige que até mesmo modelos que são implantados apenas internamente — ou seja, para uso privado das empresas que os desenvolvem — sejam cobertos pela estrutura de IA de fronteira. A lei também tenta reduzir o risco de que os requisitos estaduais e federais imponham encargos duplicados ou conflitantes aos desenvolvedores.
Implicações e Riscos
A maior questão levantada pela nova lei é se ela será superada por um esforço federal para substituir a regulamentação estadual de IA — e se qualquer regra federal se alinharia de perto com as disposições da SB-53 e da Lei RAISE ou adotaria uma abordagem diferente e possivelmente mais liberal. A administração anterior anunciou esforços renovados para impedir leis estaduais de IA, seja por meio de regulamentação federal ou ação do Congresso. Embora duas tentativas de proibir a regulamentação estadual de IA tenham falhado no Congresso no ano passado, alguns membros do Congresso expressaram interesse em reviver o esforço.
Embora o caminho do governo federal em direção a uma estrutura unificada permaneça incerto, os estados podem estar se movendo em direção a um consenso inicial sobre políticas de IA de fronteira. Governadores de ambos os partidos sinalizaram o desejo de regular a IA, e projetos de lei focados em transparência que se sobrepõem à SB-53 foram introduzidos em outros estados. O futuro da regulamentação de IA nos estados ainda apresenta grandes perguntas sobre como a estrutura de “confiar, mas verificar” será implementada.
Conclusão
Seja como for, a implementação e a capacidade dos estados de fazer cumprir essas novas leis determinarão se os frameworks de “confiar, mas verificar” criarão transparência e responsabilidade genuínas ou se provarão ser esforços meramente simbólicos para guiar a fronteira da IA.