Nova Lei de IA em Nova York: Padrões de Transparência para Sistemas Avançados

Avanços do Estado de Nova York na Legislação de IA

O estado de Nova York deu um passo significativo rumo a se tornar o primeiro dos EUA a estabelecer padrões de transparência legalmente obrigatórios para sistemas de inteligência artificial (IA) de fronteira. O Responsible AI Safety and Education Act (RAISE Act), que visa prevenir desastres alimentados por IA enquanto equilibra preocupações de inovação que prejudicaram esforços similares em outros estados, foi aprovado por ambas as câmaras da Assembleia Legislativa do Estado de Nova York em junho de 2025. O projeto de lei agora segue para a mesa da governadora Kathy Hochul, que poderá assinar a lei, enviá-la de volta para emendas ou vetá-la completamente.

Contexto e Principais Disposições

O RAISE Act surgiu a partir das lições aprendidas com o fracassado SB 1047 da Califórnia, que foi vetado pelo governador Gavin Newsom em setembro de 2024. O RAISE Act tem como alvo apenas os sistemas de IA mais poderosos, aplicando-se especificamente a empresas cujos modelos de IA atendem a ambos os critérios:

  • Limite de Custo de Treinamento: Modelos de IA que foram treinados usando mais de 100 milhões de dólares em recursos computacionais.
  • Alcance Geográfico: Modelos que estão sendo disponibilizados para residentes de Nova York.

Esse escopo restrito exclui deliberadamente empresas menores, startups e pesquisadores acadêmicos, abordando críticas-chave ao SB 1047 da Califórnia.

Requisitos Essenciais

A legislação estabelece quatro obrigações principais para as empresas abrangidas:

  1. Protocolos de Segurança e Proteção: Exige que as maiores empresas de IA publiquem protocolos de segurança e avaliações de risco. Esses protocolos cobrem riscos severos, como a assistência na criação de armas biológicas ou a realização de atividades criminais automatizadas.
  2. Relatório de Incidentes: O projeto de lei também exige que laboratórios de IA relatem incidentes de segurança, como comportamentos preocupantes de modelos de IA ou roubo de um modelo de IA, caso ocorram.
  3. Avaliação e Mitigação de Risco: As empresas devem conduzir avaliações de risco abrangentes cobrindo cenários catastróficos, incluindo:
    • Morte ou lesão de mais de 100 pessoas
    • Danos econômicos que superem 1 bilhão de dólares
    • Assistência na criação de armas biológicas ou químicas
    • Facilitação de atividades criminosas em larga escala
  4. Auditoria de Terceiros: Realizar auditorias de terceiros para garantir a conformidade com a lei.

Mecanismos de Aplicação

Se as empresas de tecnologia não cumprirem esses padrões, o RAISE Act capacita o procurador-geral de Nova York a impor multas civis de até 30 milhões de dólares. Essa estrutura de aplicação fornece um poder de dissuasão significativo, evitando a responsabilidade criminal.

Disposições de Salvo Conduto

A Lei inclui importantes proteções para o desenvolvimento responsável, permitindo que as empresas façam “redações apropriadas” nos protocolos de segurança quando necessário para:

  • Proteger a segurança pública
  • Proteger segredos comerciais
  • Manter informações confidenciais conforme exigido por lei
  • Proteger a privacidade de funcionários ou clientes

Diferenciação em Relação ao SB 1047 da Califórnia

Para modelos de IA de fronteira, o RAISE Act de Nova York parece ter sido elaborado para abordar críticas específicas ao fracassado SB 1047 da Califórnia:

  • Sem Requisito de “Kill Switch”: O RAISE Act não exige que os desenvolvedores de modelos de IA incluam um “kill switch” em seus modelos.
  • Sem Responsabilidade Pós-Treinamento: Não responsabiliza empresas que pós-treinam modelos de IA de fronteira por danos críticos.
  • Isenções Acadêmicas: Universidades e instituições de pesquisa são excluídas da cobertura.
  • Proteção para Startups: O alto limite de custo computacional garante que empresas menores não sejam afetadas.

Paisagem Regulamentar Mais Ampla

O RAISE Act representa um debate mais amplo sobre a regulamentação da IA nos Estados Unidos. Considerações chave incluem:

  • Fragmentação Regulamentar: O potencial para um mosaico de regulamentações estaduais criando desafios de conformidade.
  • Preempção Federal: Esforços em andamento no Congresso para estabelecer padrões nacionais uniformes.
  • Competitividade Internacional: Equilibrando preocupações de segurança com a manutenção da liderança dos EUA no desenvolvimento de IA.

Implicações Legais

Considerações Imediatas de Conformidade: Empresas que operam modelos de IA de fronteira em Nova York devem considerar a preparação para possíveis requisitos de conformidade:

  1. Documentação de Protocolos de Segurança: Começar a desenvolver protocolos de segurança e proteção abrangentes que possam suportar o escrutínio público enquanto protegem informações proprietárias.
  2. Sistemas de Resposta a Incidentes: Estabelecer sistemas robustos para detectar, documentar e relatar incidentes de segurança.
  3. Preparação para Auditoria de Terceiros: Identificar auditores qualificados e estabelecer sistemas de documentação prontos para auditoria.
  4. Revisão Legal: Realizar uma análise legal minuciosa das operações atuais sob a proposta de estrutura regulatória.

Esta análise é baseada em informações disponíveis publicamente até junho de 2025. Profissionais jurídicos devem monitorar desenvolvimentos contínuos e consultar legislação e regulamentações atuais para os requisitos mais atualizados.

More Insights

AI e Cibersegurança: Desafios da Responsabilidade

À medida que as organizações adotam a inteligência artificial (IA) para impulsionar a inovação e transformar operações, devem também lidar com a realidade de que a IA está rapidamente moldando o...

Abordagem Inteligente para a Governança da IA

O Sr. Sak afirma que a legislação iminente visa proteger os usuários de riscos potenciais da IA e remover barreiras legais que as leis existentes não conseguem abordar. A Tailândia elaborou princípios...

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...

Governança Ética e Inclusiva da IA na Indonésia

O Ministério da Comunicação e Digital da Indonésia reafirmou seu compromisso em incorporar princípios éticos e inclusão em suas políticas de inteligência artificial (IA). O vice-ministro Nezar Patria...

Texas Implementa a Lei de Governança Responsável de IA

Em 22 de junho de 2025, o governador Abbott assinou a Lei de Governança de Inteligência Artificial Responsável do Texas (TRAIGA), tornando o Texas o terceiro estado dos EUA a adotar uma legislação...