Nova Lei de IA em Nova York: Padrões de Transparência para Sistemas Avançados

Avanços do Estado de Nova York na Legislação de IA

O estado de Nova York deu um passo significativo rumo a se tornar o primeiro dos EUA a estabelecer padrões de transparência legalmente obrigatórios para sistemas de inteligência artificial (IA) de fronteira. O Responsible AI Safety and Education Act (RAISE Act), que visa prevenir desastres alimentados por IA enquanto equilibra preocupações de inovação que prejudicaram esforços similares em outros estados, foi aprovado por ambas as câmaras da Assembleia Legislativa do Estado de Nova York em junho de 2025. O projeto de lei agora segue para a mesa da governadora Kathy Hochul, que poderá assinar a lei, enviá-la de volta para emendas ou vetá-la completamente.

Contexto e Principais Disposições

O RAISE Act surgiu a partir das lições aprendidas com o fracassado SB 1047 da Califórnia, que foi vetado pelo governador Gavin Newsom em setembro de 2024. O RAISE Act tem como alvo apenas os sistemas de IA mais poderosos, aplicando-se especificamente a empresas cujos modelos de IA atendem a ambos os critérios:

  • Limite de Custo de Treinamento: Modelos de IA que foram treinados usando mais de 100 milhões de dólares em recursos computacionais.
  • Alcance Geográfico: Modelos que estão sendo disponibilizados para residentes de Nova York.

Esse escopo restrito exclui deliberadamente empresas menores, startups e pesquisadores acadêmicos, abordando críticas-chave ao SB 1047 da Califórnia.

Requisitos Essenciais

A legislação estabelece quatro obrigações principais para as empresas abrangidas:

  1. Protocolos de Segurança e Proteção: Exige que as maiores empresas de IA publiquem protocolos de segurança e avaliações de risco. Esses protocolos cobrem riscos severos, como a assistência na criação de armas biológicas ou a realização de atividades criminais automatizadas.
  2. Relatório de Incidentes: O projeto de lei também exige que laboratórios de IA relatem incidentes de segurança, como comportamentos preocupantes de modelos de IA ou roubo de um modelo de IA, caso ocorram.
  3. Avaliação e Mitigação de Risco: As empresas devem conduzir avaliações de risco abrangentes cobrindo cenários catastróficos, incluindo:
    • Morte ou lesão de mais de 100 pessoas
    • Danos econômicos que superem 1 bilhão de dólares
    • Assistência na criação de armas biológicas ou químicas
    • Facilitação de atividades criminosas em larga escala
  4. Auditoria de Terceiros: Realizar auditorias de terceiros para garantir a conformidade com a lei.

Mecanismos de Aplicação

Se as empresas de tecnologia não cumprirem esses padrões, o RAISE Act capacita o procurador-geral de Nova York a impor multas civis de até 30 milhões de dólares. Essa estrutura de aplicação fornece um poder de dissuasão significativo, evitando a responsabilidade criminal.

Disposições de Salvo Conduto

A Lei inclui importantes proteções para o desenvolvimento responsável, permitindo que as empresas façam “redações apropriadas” nos protocolos de segurança quando necessário para:

  • Proteger a segurança pública
  • Proteger segredos comerciais
  • Manter informações confidenciais conforme exigido por lei
  • Proteger a privacidade de funcionários ou clientes

Diferenciação em Relação ao SB 1047 da Califórnia

Para modelos de IA de fronteira, o RAISE Act de Nova York parece ter sido elaborado para abordar críticas específicas ao fracassado SB 1047 da Califórnia:

  • Sem Requisito de “Kill Switch”: O RAISE Act não exige que os desenvolvedores de modelos de IA incluam um “kill switch” em seus modelos.
  • Sem Responsabilidade Pós-Treinamento: Não responsabiliza empresas que pós-treinam modelos de IA de fronteira por danos críticos.
  • Isenções Acadêmicas: Universidades e instituições de pesquisa são excluídas da cobertura.
  • Proteção para Startups: O alto limite de custo computacional garante que empresas menores não sejam afetadas.

Paisagem Regulamentar Mais Ampla

O RAISE Act representa um debate mais amplo sobre a regulamentação da IA nos Estados Unidos. Considerações chave incluem:

  • Fragmentação Regulamentar: O potencial para um mosaico de regulamentações estaduais criando desafios de conformidade.
  • Preempção Federal: Esforços em andamento no Congresso para estabelecer padrões nacionais uniformes.
  • Competitividade Internacional: Equilibrando preocupações de segurança com a manutenção da liderança dos EUA no desenvolvimento de IA.

Implicações Legais

Considerações Imediatas de Conformidade: Empresas que operam modelos de IA de fronteira em Nova York devem considerar a preparação para possíveis requisitos de conformidade:

  1. Documentação de Protocolos de Segurança: Começar a desenvolver protocolos de segurança e proteção abrangentes que possam suportar o escrutínio público enquanto protegem informações proprietárias.
  2. Sistemas de Resposta a Incidentes: Estabelecer sistemas robustos para detectar, documentar e relatar incidentes de segurança.
  3. Preparação para Auditoria de Terceiros: Identificar auditores qualificados e estabelecer sistemas de documentação prontos para auditoria.
  4. Revisão Legal: Realizar uma análise legal minuciosa das operações atuais sob a proposta de estrutura regulatória.

Esta análise é baseada em informações disponíveis publicamente até junho de 2025. Profissionais jurídicos devem monitorar desenvolvimentos contínuos e consultar legislação e regulamentações atuais para os requisitos mais atualizados.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...