Da Transparência à Supervisão: A Nova Lei RAISE de Nova York Eleva o Padrão para Desenvolvedores de IA de Fronteira
Em 19 de dezembro de 2025, o governador de Nova York assinou a Lei A6453-A, também conhecida como a Lei de Segurança e Educação em IA Responsável (RAISE). Esta legislação estabelece uma estrutura direcionada que rege o desenvolvimento e a implementação dos mais avançados modelos de inteligência artificial de “fronteira”, com foco na segurança da IA, transparência e na prevenção e relato de incidentes que envolvam danos catastróficos.
A Lei RAISE não inclui uma fase de implementação gradual das obrigações. Em vez disso, a legislação entra em vigor em 1º de julho de 2027, com certos requisitos operando de forma contínua ou anual uma vez em vigor.
Obrigações e Supervisão
A Lei RAISE impõe obrigações afirmativas de segurança, documentação, auditoria e relato de incidentes a grandes desenvolvedores de modelos de IA de fronteira, sob a supervisão do Procurador Geral de Nova York. A legislação não regula os implementadores de IA ou usuários comuns como uma classe separada.
Em sua apresentação da legislação, o governador indicou que o projeto reflete emendas que visam alinhar a abordagem de Nova York com a Lei SB 53 da Califórnia, a Lei de Transparência em Inteligência Artificial de Fronteira (TAFAIA). Por exemplo, a legislação final concentra-se nos modelos de fronteira mais capazes e nas obrigações de conformidade sobre os grandes desenvolvedores, sem regular mais amplamente os sistemas de IA ou seus implementadores.
Importância da Lei RAISE
A Lei RAISE é significativa por três razões principais:
- Primeiro, ela vai além das obrigações puramente baseadas em transparência, exigindo que grandes desenvolvedores de fronteira implementem, documentem e auditem protocolos e medidas de segurança como condição para a implementação.
- Segundo, estabelece um prazo de relato obrigatório de incidentes de segurança de 72 horas, que é mais rigoroso do que o prazo padrão de 15 dias da Califórnia sob a SB 53.
- Terceiro, sinaliza uma convergência crescente entre grandes estados em torno da governança de modelos de fronteira, mesmo que as mecânicas de conformidade precisas diferem.
Quem é afetado pela Lei RAISE?
A Lei RAISE se aplica a grandes desenvolvedores de modelos de IA de fronteira que são desenvolvidos, implementados ou operam, total ou parcialmente, no estado de Nova York. Um “modelo de fronteira” é definido por referência a treinamento em larga escala ou destilação de conhecimento, e obrigações mais elevadas são atribuídas apenas aos desenvolvedores que atendem a certos limiares de custo computacional.
As universidades acreditadas estão excluídas na medida em que estejam envolvidas em pesquisa acadêmica.
Exigências para Desenvolvedores de IA
Os desenvolvedores abrangidos devem adotar, implementar e manter um protocolo escrito de segurança de IA que aborde os riscos associados ao desenvolvimento e à implementação de modelos de IA de fronteira. Uma versão redigida do protocolo deve ser tornada pública, enquanto uma versão não redigida deve ser mantida e disponibilizada ao Estado mediante solicitação.
Os desenvolvedores também devem documentar procedimentos de teste, resultados e salvaguardas utilizadas para avaliar e mitigar o risco de danos críticos. Esta documentação deve ser mantida em detalhes suficientes para apoiar a revisão regulatória e auditoria independente.
A Lei RAISE exige ainda uma auditoria anual independente de conformidade com suas exigências de segurança, com um relatório redigido tornado público e materiais não redigidos retidos para revisão pelo governo.
Comparação com a SB 53 da Califórnia
Ambas as legislações visam desenvolvedores dos modelos de IA mais capazes e concentram-se na prevenção e controle de riscos relacionados a esses sistemas avançados.