Riscos de Segurança da IA no Ato RAISE de Nova York

A Lei RAISE de Nova York e os Riscos da Segurança em IA

A Lei RAISE do estado de Nova York, que visa proteger as pessoas dos danos causados pela Inteligência Artificial (IA), apresenta um objetivo admirável. No entanto, ao assumir que os modelos de IA são o principal ponto de alavancagem para garantir a segurança, a RAISE corre o risco de transformar um desafio técnico em um ônus burocrático.

Objetivos e Requisitos da Lei RAISE

Autorizada por um membro da Assembleia Estadual, a Lei RAISE aplica uma lista de requisitos destinados a garantir que as tecnologias de IA sejam implantadas e utilizadas de maneira responsável. Atualmente, a lei está sendo debatida em uma comissão.

Os legisladores estão preocupados que a IA avançada possa ajudar a criar armas químicas, biológicas e nucleares. No entanto, os verdadeiros riscos residem na acessibilidade de materiais perigosos que são precursores, e não nos sistemas de IA em si.

Modelo de Regulamentação

A Lei RAISE, assim como a SB 1047 da Califórnia, tem como alvo os “modelos de fronteira” da IA — sistemas que atendem a certos limites computacionais e custam mais de 100 milhões de dólares para serem treinados. As regras também se estendem a outros modelos construídos sobre esses sistemas cobertos.

Os desenvolvedores de modelos abrangidos pela RAISE devem seguir, entre outras regras, procedimentos de teste obrigatórios e estratégias de mitigação de riscos; passar por auditorias de terceiros regulares; submeter-se a requisitos de transparência; relatar incidentes em que um sistema tenha permitido ocorrências perigosas; reter registros detalhados de testes por cinco anos; realizar revisões e atualizações anuais de protocolos; evitar a implantação de modelos “irresponsavelmente” arriscados; e proteger as proteções para denunciantes de funcionários. Todas essas exigências são respaldadas por penalidades significativas para violações, que começam em 5% dos custos computacionais para a primeira violação e aumentam para 15% para as subsequentes.

Desafios da Alinhamento de Modelos

No papel, a lei busca alinhar os incentivos entre os motivos de lucro das empresas e os interesses de segurança pública. No entanto, na prática, alinhar modelos para impedir o uso indevido tem se mostrado difícil. O alinhamento de modelos parece ser mais útil para prevenir danos acidentais, como gerar conselhos ruins ou informações factualmente incorretas, do que para impedir atores maliciosos que desejam construir bombas.

Pesquisadores de ciência da computação de uma universidade renomada destacam que, mesmo que os modelos possam ser tornados “seguros”, eles ainda podem ser usados para fins maliciosos. Abordagens de ponta agora se concentram em sistemas externos que operam sobre modelos para manter o alinhamento, desenvolvendo filtros de conteúdo externos, protocolos de supervisão humana e sistemas de monitoramento em tempo real.

Contradições e Custos de Conformidade

A Lei RAISE impõe um conjunto pesado de requisitos para alcançar seus objetivos. Por exemplo, se os protocolos de segurança robustos estão em vigor e funcionando efetivamente, por que exigir cinco anos de manutenção de registros? Se um modelo passa por uma auditoria independente que certifica a conformidade com esses protocolos, por que os desenvolvedores ainda devem atender a um padrão separado de “razoabilidade” para a implantação?

Essas contradições vão além da ineficiência burocrática. A Lei RAISE tenta abordar a transparência corporativa, as proteções para funcionários, a segurança técnica e a responsabilidade — tudo dentro de um único quadro regulatório. O resultado pode priorizar a conformidade em detrimento de resultados reais de segurança.

Os formuladores de políticas e os defensores da legislação de segurança em IA tendem a minimizar os custos de conformidade, mas não deveriam ser tão desdenhosos. Estimativas anteriores de custos de conformidade podem ser excessivamente otimistas e o preço real para a conformidade pode ser muito mais alto.

Usando métodos semelhantes, foi solicitado que modelos de linguagem avançados estimassem as horas necessárias para cumprir a lei no primeiro ano e em anos subsequentes para uma empresa de modelo de fronteira. Os resultados indicam que a conformidade inicial pode variar entre 1.070 e 2.810 horas, exigindo efetivamente um funcionário em tempo integral.

As incertezas fundamentais em torno da Lei RAISE e de outras leis semelhantes ressaltam a imprevisibilidade dessa legislação na prática. O mercado está se movendo rapidamente, e é preciso que as leis priorizem a mitigação eficaz de riscos em vez de um teatro regulatório.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...