Avanços do Estado de Nova York na Legislação de IA
O estado de Nova York deu um passo significativo rumo a se tornar o primeiro dos EUA a estabelecer padrões de transparência legalmente obrigatórios para sistemas de inteligência artificial (IA) de fronteira. O Responsible AI Safety and Education Act (RAISE Act), que visa prevenir desastres alimentados por IA enquanto equilibra preocupações de inovação que prejudicaram esforços similares em outros estados, foi aprovado por ambas as câmaras da Assembleia Legislativa do Estado de Nova York em junho de 2025. O projeto de lei agora segue para a mesa da governadora Kathy Hochul, que poderá assinar a lei, enviá-la de volta para emendas ou vetá-la completamente.
Contexto e Principais Disposições
O RAISE Act surgiu a partir das lições aprendidas com o fracassado SB 1047 da Califórnia, que foi vetado pelo governador Gavin Newsom em setembro de 2024. O RAISE Act tem como alvo apenas os sistemas de IA mais poderosos, aplicando-se especificamente a empresas cujos modelos de IA atendem a ambos os critérios:
- Limite de Custo de Treinamento: Modelos de IA que foram treinados usando mais de 100 milhões de dólares em recursos computacionais.
- Alcance Geográfico: Modelos que estão sendo disponibilizados para residentes de Nova York.
Esse escopo restrito exclui deliberadamente empresas menores, startups e pesquisadores acadêmicos, abordando críticas-chave ao SB 1047 da Califórnia.
Requisitos Essenciais
A legislação estabelece quatro obrigações principais para as empresas abrangidas:
- Protocolos de Segurança e Proteção: Exige que as maiores empresas de IA publiquem protocolos de segurança e avaliações de risco. Esses protocolos cobrem riscos severos, como a assistência na criação de armas biológicas ou a realização de atividades criminais automatizadas.
- Relatório de Incidentes: O projeto de lei também exige que laboratórios de IA relatem incidentes de segurança, como comportamentos preocupantes de modelos de IA ou roubo de um modelo de IA, caso ocorram.
- Avaliação e Mitigação de Risco: As empresas devem conduzir avaliações de risco abrangentes cobrindo cenários catastróficos, incluindo:
- Morte ou lesão de mais de 100 pessoas
- Danos econômicos que superem 1 bilhão de dólares
- Assistência na criação de armas biológicas ou químicas
- Facilitação de atividades criminosas em larga escala
- Auditoria de Terceiros: Realizar auditorias de terceiros para garantir a conformidade com a lei.
Mecanismos de Aplicação
Se as empresas de tecnologia não cumprirem esses padrões, o RAISE Act capacita o procurador-geral de Nova York a impor multas civis de até 30 milhões de dólares. Essa estrutura de aplicação fornece um poder de dissuasão significativo, evitando a responsabilidade criminal.
Disposições de Salvo Conduto
A Lei inclui importantes proteções para o desenvolvimento responsável, permitindo que as empresas façam “redações apropriadas” nos protocolos de segurança quando necessário para:
- Proteger a segurança pública
- Proteger segredos comerciais
- Manter informações confidenciais conforme exigido por lei
- Proteger a privacidade de funcionários ou clientes
Diferenciação em Relação ao SB 1047 da Califórnia
Para modelos de IA de fronteira, o RAISE Act de Nova York parece ter sido elaborado para abordar críticas específicas ao fracassado SB 1047 da Califórnia:
- Sem Requisito de “Kill Switch”: O RAISE Act não exige que os desenvolvedores de modelos de IA incluam um “kill switch” em seus modelos.
- Sem Responsabilidade Pós-Treinamento: Não responsabiliza empresas que pós-treinam modelos de IA de fronteira por danos críticos.
- Isenções Acadêmicas: Universidades e instituições de pesquisa são excluídas da cobertura.
- Proteção para Startups: O alto limite de custo computacional garante que empresas menores não sejam afetadas.
Paisagem Regulamentar Mais Ampla
O RAISE Act representa um debate mais amplo sobre a regulamentação da IA nos Estados Unidos. Considerações chave incluem:
- Fragmentação Regulamentar: O potencial para um mosaico de regulamentações estaduais criando desafios de conformidade.
- Preempção Federal: Esforços em andamento no Congresso para estabelecer padrões nacionais uniformes.
- Competitividade Internacional: Equilibrando preocupações de segurança com a manutenção da liderança dos EUA no desenvolvimento de IA.
Implicações Legais
Considerações Imediatas de Conformidade: Empresas que operam modelos de IA de fronteira em Nova York devem considerar a preparação para possíveis requisitos de conformidade:
- Documentação de Protocolos de Segurança: Começar a desenvolver protocolos de segurança e proteção abrangentes que possam suportar o escrutínio público enquanto protegem informações proprietárias.
- Sistemas de Resposta a Incidentes: Estabelecer sistemas robustos para detectar, documentar e relatar incidentes de segurança.
- Preparação para Auditoria de Terceiros: Identificar auditores qualificados e estabelecer sistemas de documentação prontos para auditoria.
- Revisão Legal: Realizar uma análise legal minuciosa das operações atuais sob a proposta de estrutura regulatória.
Esta análise é baseada em informações disponíveis publicamente até junho de 2025. Profissionais jurídicos devem monitorar desenvolvimentos contínuos e consultar legislação e regulamentações atuais para os requisitos mais atualizados.