AI Safety ou Congelamento da Inovação? – O que a RAISE Act de Nova Iorque Erra
Recentemente, a Assembleia Legislativa do Estado de Nova Iorque aprovou a Responsible AI Safety and Education Act (RAISE Act), uma tentativa de abordar os riscos fundamentais impostos por modelos de IA de fronteira. No entanto, ao impor obrigações exclusivamente sobre os desenvolvedores desses modelos, a lei ignora a cadeia de valor mais ampla da IA, congelando a inovação sem melhorar significativamente a segurança.
Em 12 de junho de 2025, a Assembleia Legislativa de Nova Iorque aprovou a RAISE Act, que agora aguarda a aprovação da Governadora Kathy Hochul. A medida segue o One Big Beautiful Bill Act, que inicialmente contemplava uma moratória de dez anos sobre a regulamentação da IA em nível estadual, mas nunca adotou tal congelamento.
Escopo da RAISE Act
A RAISE Act marca a primeira grande incursão na regulamentação da IA de fronteira em Nova Iorque e em todo os EUA, aplicando-se não apenas a todos os modelos de fronteira desenvolvidos no estado, mas também a qualquer modelo disponibilizado a residentes de Nova Iorque. Inspirada na EU’s AI Act e na SB 1047 da Califórnia, a RAISE Act busca garantir a segurança dos “modelos de fronteira”, definidos como modelos de IA que custam mais de $100 milhões para treinar e excedem um limite computacional especificado.
A legislação visa prevenir abusos que possam causar “dano crítico”, definido como a morte ou lesão grave de pelo menos 100 pessoas, ou danos econômicos de $1 bilhão ou mais. Preocupações específicas são direcionadas ao uso potencial em desenvolvimento de armas químicas, biológicas, radiológicas ou nucleares, bem como à conduta autônoma (semi) desses modelos, que, se cometida por um humano, constituiria crimes graves sob o código penal de Nova Iorque.
Obrigações dos Desenvolvedores
De acordo com a RAISE Act, antes de liberar um modelo de fronteira, um desenvolvedor deve:
- implementar protocolos de segurança e proteção, incluindo riscos criados por usos de terceiros do modelo fora do controle do desenvolvedor;
- publicar esses protocolos de forma visível e transmiti-los à Divisão de Segurança Interna e Serviços de Emergência;
- implementar salvaguardas para prevenir riscos não razoáveis de dano crítico, sem critérios claros para o que constitui uma salvaguarda apropriada.
Se os riscos não razoáveis não puderem ser prevenidos através de salvaguardas, a lei proíbe a liberação do modelo. A aplicação fica a cargo do Procurador-Geral, que pode impor multas civis de até $10 milhões para uma violação inicial e até $30 milhões para violações repetidas.
Uma Alocação de Responsabilidade Unilateral
A RAISE Act impõe todas as obrigações aos desenvolvedores de fronteira, sem estender deveres a outros atores na cadeia de valor da IA, como aqueles que ajustam ou modificam modelos, os que os integram em sistemas de IA ou os utilizam como usuários finais. Isso contrasta com a EU’s AI Act, que distribui obrigações entre várias categorias de atores.
Ao regular apenas os desenvolvedores de modelos e responsabilizá-los até mesmo por abusos de terceiros, a RAISE Act cria um padrão de responsabilidade irreal. Os desenvolvedores não podem antecipar, quanto mais controlar, a vasta gama de possíveis aplicações e seus potenciais usos indevidos. Isso é especialmente prejudicial para desenvolvedores de código aberto que têm pouco ou nenhum contato com os usuários e, portanto, capacidades limitadas para policiar abusos.
O Problema do “Dano Crítico”
O conceito de “risco de dano crítico” é igualmente falho. Modelos de fronteira são inerentemente de uso geral; os riscos que eles apresentam dependem de seus usos subsequentes, que variam amplamente entre setores e contextos. No entanto, a lei exige que os desenvolvedores avaliem e mitiguem esses riscos ex ante, no momento do lançamento, quando tais riscos são amplamente especulativos, difusos e imensuráveis.
Além disso, a RAISE Act não fornece critérios significativos para determinar quando tais riscos existem ou o que qualifica como “salvaguardas apropriadas”. Ao deixar essas determinações para interpretação futura, a legislação cria incerteza legal e expõe os desenvolvedores a aplicação ex post sem uma orientação clara ex ante.
Uma Necessidade de Abordagem Mais Equilibrada
A crítica à RAISE Act não deve ser confundida com a rejeição de toda a regulamentação de modelos de IA de fronteira ou de uso geral. Existem argumentos fortes para impor obrigações básicas, como testes e moderação de prompts para prevenir resultados que facilitem atividades ilegais. Os desenvolvedores também devem ser obrigados a compartilhar informações suficientes com os atores a jusante, permitindo-lhes cumprir suas próprias obrigações e implementar salvaguardas.
No entanto, uma regulamentação significativa deve se estender ainda mais. Provedores a jusante – incluindo aqueles que fazem ajustes, implantadores e usuários finais – estão em melhor posição para avaliar riscos contextuais específicos. Eles podem amplificar riscos existentes ou criar novos, melhorando as capacidades de um modelo, desativando recursos de segurança integrados ou utilizando um modelo de maneiras imprevistas. Concentrar todas as obrigações apenas nos desenvolvedores a montante é, portanto, ineficaz.
Conclusão
A RAISE Act falha em estabelecer um quadro equilibrado para a governança da IA. Ao direcionar apenas desenvolvedores de fronteira, confiar em conceitos vagos de “dano crítico”, exigir auditorias perpetuamente e ignorar acordos contratuais, desconsidera as capacidades diferenciadas dos atores ao longo da cadeia de valor da IA.
Se aprovada, a RAISE Act pode não alcançar muito em termos de segurança, enquanto desestimula substancialmente a inovação e o desenvolvimento de código aberto em Nova Iorque e além. Longe de estabelecer um modelo para uma governança responsável, corre o risco de se tornar um conto cautelar de como uma regulamentação bem-intencionada, mas desproporcional, pode impedir o próprio progresso que busca proteger.