Nova Lei RAISE: Padrões Elevados para Desenvolvedores de IA em Nova York

Da Transparência à Supervisão: A Nova Lei RAISE de Nova York Eleva o Padrão para Desenvolvedores de IA de Fronteira

Em 19 de dezembro de 2025, o governador de Nova York assinou a Lei A6453-A, também conhecida como a Lei de Segurança e Educação em IA Responsável (RAISE). Esta legislação estabelece uma estrutura direcionada que rege o desenvolvimento e a implementação dos mais avançados modelos de inteligência artificial de “fronteira”, com foco na segurança da IA, transparência e na prevenção e relato de incidentes que envolvam danos catastróficos.

A Lei RAISE não inclui uma fase de implementação gradual das obrigações. Em vez disso, a legislação entra em vigor em 1º de julho de 2027, com certos requisitos operando de forma contínua ou anual uma vez em vigor.

Obrigações e Supervisão

A Lei RAISE impõe obrigações afirmativas de segurança, documentação, auditoria e relato de incidentes a grandes desenvolvedores de modelos de IA de fronteira, sob a supervisão do Procurador Geral de Nova York. A legislação não regula os implementadores de IA ou usuários comuns como uma classe separada.

Em sua apresentação da legislação, o governador indicou que o projeto reflete emendas que visam alinhar a abordagem de Nova York com a Lei SB 53 da Califórnia, a Lei de Transparência em Inteligência Artificial de Fronteira (TAFAIA). Por exemplo, a legislação final concentra-se nos modelos de fronteira mais capazes e nas obrigações de conformidade sobre os grandes desenvolvedores, sem regular mais amplamente os sistemas de IA ou seus implementadores.

Importância da Lei RAISE

A Lei RAISE é significativa por três razões principais:

  • Primeiro, ela vai além das obrigações puramente baseadas em transparência, exigindo que grandes desenvolvedores de fronteira implementem, documentem e auditem protocolos e medidas de segurança como condição para a implementação.
  • Segundo, estabelece um prazo de relato obrigatório de incidentes de segurança de 72 horas, que é mais rigoroso do que o prazo padrão de 15 dias da Califórnia sob a SB 53.
  • Terceiro, sinaliza uma convergência crescente entre grandes estados em torno da governança de modelos de fronteira, mesmo que as mecânicas de conformidade precisas diferem.

Quem é afetado pela Lei RAISE?

A Lei RAISE se aplica a grandes desenvolvedores de modelos de IA de fronteira que são desenvolvidos, implementados ou operam, total ou parcialmente, no estado de Nova York. Um “modelo de fronteira” é definido por referência a treinamento em larga escala ou destilação de conhecimento, e obrigações mais elevadas são atribuídas apenas aos desenvolvedores que atendem a certos limiares de custo computacional.

As universidades acreditadas estão excluídas na medida em que estejam envolvidas em pesquisa acadêmica.

Exigências para Desenvolvedores de IA

Os desenvolvedores abrangidos devem adotar, implementar e manter um protocolo escrito de segurança de IA que aborde os riscos associados ao desenvolvimento e à implementação de modelos de IA de fronteira. Uma versão redigida do protocolo deve ser tornada pública, enquanto uma versão não redigida deve ser mantida e disponibilizada ao Estado mediante solicitação.

Os desenvolvedores também devem documentar procedimentos de teste, resultados e salvaguardas utilizadas para avaliar e mitigar o risco de danos críticos. Esta documentação deve ser mantida em detalhes suficientes para apoiar a revisão regulatória e auditoria independente.

A Lei RAISE exige ainda uma auditoria anual independente de conformidade com suas exigências de segurança, com um relatório redigido tornado público e materiais não redigidos retidos para revisão pelo governo.

Comparação com a SB 53 da Califórnia

Ambas as legislações visam desenvolvedores dos modelos de IA mais capazes e concentram-se na prevenção e controle de riscos relacionados a esses sistemas avançados.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...