Riscos de Segurança da IA no Ato RAISE de Nova York

A Lei RAISE de Nova York e os Riscos da Segurança em IA

A Lei RAISE do estado de Nova York, que visa proteger as pessoas dos danos causados pela Inteligência Artificial (IA), apresenta um objetivo admirável. No entanto, ao assumir que os modelos de IA são o principal ponto de alavancagem para garantir a segurança, a RAISE corre o risco de transformar um desafio técnico em um ônus burocrático.

Objetivos e Requisitos da Lei RAISE

Autorizada por um membro da Assembleia Estadual, a Lei RAISE aplica uma lista de requisitos destinados a garantir que as tecnologias de IA sejam implantadas e utilizadas de maneira responsável. Atualmente, a lei está sendo debatida em uma comissão.

Os legisladores estão preocupados que a IA avançada possa ajudar a criar armas químicas, biológicas e nucleares. No entanto, os verdadeiros riscos residem na acessibilidade de materiais perigosos que são precursores, e não nos sistemas de IA em si.

Modelo de Regulamentação

A Lei RAISE, assim como a SB 1047 da Califórnia, tem como alvo os “modelos de fronteira” da IA — sistemas que atendem a certos limites computacionais e custam mais de 100 milhões de dólares para serem treinados. As regras também se estendem a outros modelos construídos sobre esses sistemas cobertos.

Os desenvolvedores de modelos abrangidos pela RAISE devem seguir, entre outras regras, procedimentos de teste obrigatórios e estratégias de mitigação de riscos; passar por auditorias de terceiros regulares; submeter-se a requisitos de transparência; relatar incidentes em que um sistema tenha permitido ocorrências perigosas; reter registros detalhados de testes por cinco anos; realizar revisões e atualizações anuais de protocolos; evitar a implantação de modelos “irresponsavelmente” arriscados; e proteger as proteções para denunciantes de funcionários. Todas essas exigências são respaldadas por penalidades significativas para violações, que começam em 5% dos custos computacionais para a primeira violação e aumentam para 15% para as subsequentes.

Desafios da Alinhamento de Modelos

No papel, a lei busca alinhar os incentivos entre os motivos de lucro das empresas e os interesses de segurança pública. No entanto, na prática, alinhar modelos para impedir o uso indevido tem se mostrado difícil. O alinhamento de modelos parece ser mais útil para prevenir danos acidentais, como gerar conselhos ruins ou informações factualmente incorretas, do que para impedir atores maliciosos que desejam construir bombas.

Pesquisadores de ciência da computação de uma universidade renomada destacam que, mesmo que os modelos possam ser tornados “seguros”, eles ainda podem ser usados para fins maliciosos. Abordagens de ponta agora se concentram em sistemas externos que operam sobre modelos para manter o alinhamento, desenvolvendo filtros de conteúdo externos, protocolos de supervisão humana e sistemas de monitoramento em tempo real.

Contradições e Custos de Conformidade

A Lei RAISE impõe um conjunto pesado de requisitos para alcançar seus objetivos. Por exemplo, se os protocolos de segurança robustos estão em vigor e funcionando efetivamente, por que exigir cinco anos de manutenção de registros? Se um modelo passa por uma auditoria independente que certifica a conformidade com esses protocolos, por que os desenvolvedores ainda devem atender a um padrão separado de “razoabilidade” para a implantação?

Essas contradições vão além da ineficiência burocrática. A Lei RAISE tenta abordar a transparência corporativa, as proteções para funcionários, a segurança técnica e a responsabilidade — tudo dentro de um único quadro regulatório. O resultado pode priorizar a conformidade em detrimento de resultados reais de segurança.

Os formuladores de políticas e os defensores da legislação de segurança em IA tendem a minimizar os custos de conformidade, mas não deveriam ser tão desdenhosos. Estimativas anteriores de custos de conformidade podem ser excessivamente otimistas e o preço real para a conformidade pode ser muito mais alto.

Usando métodos semelhantes, foi solicitado que modelos de linguagem avançados estimassem as horas necessárias para cumprir a lei no primeiro ano e em anos subsequentes para uma empresa de modelo de fronteira. Os resultados indicam que a conformidade inicial pode variar entre 1.070 e 2.810 horas, exigindo efetivamente um funcionário em tempo integral.

As incertezas fundamentais em torno da Lei RAISE e de outras leis semelhantes ressaltam a imprevisibilidade dessa legislação na prática. O mercado está se movendo rapidamente, e é preciso que as leis priorizem a mitigação eficaz de riscos em vez de um teatro regulatório.

More Insights

AI e Cibersegurança: Desafios da Responsabilidade

À medida que as organizações adotam a inteligência artificial (IA) para impulsionar a inovação e transformar operações, devem também lidar com a realidade de que a IA está rapidamente moldando o...

Abordagem Inteligente para a Governança da IA

O Sr. Sak afirma que a legislação iminente visa proteger os usuários de riscos potenciais da IA e remover barreiras legais que as leis existentes não conseguem abordar. A Tailândia elaborou princípios...

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...

Governança Ética e Inclusiva da IA na Indonésia

O Ministério da Comunicação e Digital da Indonésia reafirmou seu compromisso em incorporar princípios éticos e inclusão em suas políticas de inteligência artificial (IA). O vice-ministro Nezar Patria...

Texas Implementa a Lei de Governança Responsável de IA

Em 22 de junho de 2025, o governador Abbott assinou a Lei de Governança de Inteligência Artificial Responsável do Texas (TRAIGA), tornando o Texas o terceiro estado dos EUA a adotar uma legislação...