RAISE Act de Nova York: Um Modelo para a Regulamentação de IA

O Ato RAISE de Nova York: Um Modelo para a Regulação de IA

Nova York se tornou um dos principais players na regulação da inteligência artificial ao assinar o Ato de Segurança e Educação em IA Responsável (RAISE) em dezembro de 2025.

O Ato RAISE se juntou ao SB-53 da Califórnia para estabelecer uma estrutura de governança baseada em divulgação para os modelos de IA mais poderosos do mercado. Essas legislações não apresentam ideias radicalmente novas, mas sinalizam como a governança direcionada da IA em nível estadual provavelmente se expandirá e se consolidará nos próximos anos.

Contexto e Desafios da Política de IA

A lei de Nova York chega em um momento em que a política de IA estadual permanece fragmentada e a política em nível federal é politicamente contestada. Um decreto executivo anterior sobre IA direciona o Departamento de Justiça dos EUA a identificar e contestar leis estaduais que possam regular inconstitucionalmente o comércio interestadual. As exigências de divulgação para empresas de-employed IA são explicitamente mencionadas como uma categoria sujeita a escrutínio.

A ameaça de litígios e consequências financeiras busca desestimular ações em nível estadual. No entanto, a decisão de Nova York de avançar sugere confiança de que a regulação baseada em divulgação pode resistir a desafios legais, ou que o cálculo político favoreceu o progresso apesar dos riscos.

Comparação com a Legislação da Califórnia

As diferenças entre as legislações de Nova York e Califórnia são modestas. A Califórnia permite um prazo de 15 dias para relatar incidentes críticos de segurança, enquanto Nova York estabelece 72 horas. SB-53 limita as penalidades civis a $1 milhão, enquanto o Ato RAISE permite multas de até $1 milhão para a primeira violação e $3 milhões para violações subsequentes.

Enquanto a Califórnia inclui proteções explícitas para denunciantes, a lei de Nova York não aborda esse ponto. À medida que mais estados buscam regular a IA, muitos provavelmente adotarão esses frameworks em vez de inventar novos.

Escopo e Objetivos do A Ctrl RAISE

O Ato RAISE é direcionado apenas a ‘grandes desenvolvedores de fronteira’, definidos como empresas com mais de $500 milhões em receita anual que treinam ou iniciam o treinamento de modelos que superam operações computacionais específicas. Na prática, isso se aplica a um pequeno número de grandes empresas.

A lei se limita a modelos de fronteira desenvolvidos ou operados, total ou parcialmente, em Nova York. Isso garante que o Ato RAISE se concentre nos modelos mais capazes, sem abranger desenvolvedores menores.

Transparência como Mecanismo de Regulação

Em vez de prescrever salvaguardas técnicas, o Ato RAISE confia fortemente na transparência como seu principal mecanismo regulatório. Os desenvolvedores cobertos devem criar, implementar e divulgar publicamente um ‘framework de IA de fronteira’ que explique como avaliam e mitigam riscos catastróficos.

Esses frameworks não são estáticos e devem ser atualizados anualmente e sempre que um modelo de fronteira for modificado. Após uma mudança no modelo, os desenvolvedores devem publicar o framework revisado e justificar as alterações dentro de 30 dias.

Relato de Incidentes em Prazos Rigorosos

Os desenvolvedores de modelos de fronteira devem notificar os reguladores estaduais sobre ‘incidentes críticos de segurança’, incluindo acessos não autorizados que causam danos. Os prazos para notificação são agressivos, exigindo relatórios dentro de 72 horas ou 24 horas para riscos iminentes de morte ou lesão grave.

Implicações para Equipes de Governança de IA

À medida que os desenvolvedores operationalizam seus frameworks de IA de fronteira, os termos contratuais provavelmente evoluirão Portlandia. Organizações que implantam modelos de fronteira serão cada vez mais esperadas para identificar e documentar rapidamente sinais de risco quando algo der errado.

A lição mais ampla do Ato RAISE não diz respeito apenas a Nova York, mas também sobre a trajetória que outros estados podem seguir. Empresas que investem cedo em processos de governança duráveis estarão melhor posicionadas à medida que mais estados adotem o mesmo modelo.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...