Riscos de Segurança da IA no Ato RAISE de Nova York

A Lei RAISE de Nova York e os Riscos da Segurança em IA

A Lei RAISE do estado de Nova York, que visa proteger as pessoas dos danos causados pela Inteligência Artificial (IA), apresenta um objetivo admirável. No entanto, ao assumir que os modelos de IA são o principal ponto de alavancagem para garantir a segurança, a RAISE corre o risco de transformar um desafio técnico em um ônus burocrático.

Objetivos e Requisitos da Lei RAISE

Autorizada por um membro da Assembleia Estadual, a Lei RAISE aplica uma lista de requisitos destinados a garantir que as tecnologias de IA sejam implantadas e utilizadas de maneira responsável. Atualmente, a lei está sendo debatida em uma comissão.

Os legisladores estão preocupados que a IA avançada possa ajudar a criar armas químicas, biológicas e nucleares. No entanto, os verdadeiros riscos residem na acessibilidade de materiais perigosos que são precursores, e não nos sistemas de IA em si.

Modelo de Regulamentação

A Lei RAISE, assim como a SB 1047 da Califórnia, tem como alvo os “modelos de fronteira” da IA — sistemas que atendem a certos limites computacionais e custam mais de 100 milhões de dólares para serem treinados. As regras também se estendem a outros modelos construídos sobre esses sistemas cobertos.

Os desenvolvedores de modelos abrangidos pela RAISE devem seguir, entre outras regras, procedimentos de teste obrigatórios e estratégias de mitigação de riscos; passar por auditorias de terceiros regulares; submeter-se a requisitos de transparência; relatar incidentes em que um sistema tenha permitido ocorrências perigosas; reter registros detalhados de testes por cinco anos; realizar revisões e atualizações anuais de protocolos; evitar a implantação de modelos “irresponsavelmente” arriscados; e proteger as proteções para denunciantes de funcionários. Todas essas exigências são respaldadas por penalidades significativas para violações, que começam em 5% dos custos computacionais para a primeira violação e aumentam para 15% para as subsequentes.

Desafios da Alinhamento de Modelos

No papel, a lei busca alinhar os incentivos entre os motivos de lucro das empresas e os interesses de segurança pública. No entanto, na prática, alinhar modelos para impedir o uso indevido tem se mostrado difícil. O alinhamento de modelos parece ser mais útil para prevenir danos acidentais, como gerar conselhos ruins ou informações factualmente incorretas, do que para impedir atores maliciosos que desejam construir bombas.

Pesquisadores de ciência da computação de uma universidade renomada destacam que, mesmo que os modelos possam ser tornados “seguros”, eles ainda podem ser usados para fins maliciosos. Abordagens de ponta agora se concentram em sistemas externos que operam sobre modelos para manter o alinhamento, desenvolvendo filtros de conteúdo externos, protocolos de supervisão humana e sistemas de monitoramento em tempo real.

Contradições e Custos de Conformidade

A Lei RAISE impõe um conjunto pesado de requisitos para alcançar seus objetivos. Por exemplo, se os protocolos de segurança robustos estão em vigor e funcionando efetivamente, por que exigir cinco anos de manutenção de registros? Se um modelo passa por uma auditoria independente que certifica a conformidade com esses protocolos, por que os desenvolvedores ainda devem atender a um padrão separado de “razoabilidade” para a implantação?

Essas contradições vão além da ineficiência burocrática. A Lei RAISE tenta abordar a transparência corporativa, as proteções para funcionários, a segurança técnica e a responsabilidade — tudo dentro de um único quadro regulatório. O resultado pode priorizar a conformidade em detrimento de resultados reais de segurança.

Os formuladores de políticas e os defensores da legislação de segurança em IA tendem a minimizar os custos de conformidade, mas não deveriam ser tão desdenhosos. Estimativas anteriores de custos de conformidade podem ser excessivamente otimistas e o preço real para a conformidade pode ser muito mais alto.

Usando métodos semelhantes, foi solicitado que modelos de linguagem avançados estimassem as horas necessárias para cumprir a lei no primeiro ano e em anos subsequentes para uma empresa de modelo de fronteira. Os resultados indicam que a conformidade inicial pode variar entre 1.070 e 2.810 horas, exigindo efetivamente um funcionário em tempo integral.

As incertezas fundamentais em torno da Lei RAISE e de outras leis semelhantes ressaltam a imprevisibilidade dessa legislação na prática. O mercado está se movendo rapidamente, e é preciso que as leis priorizem a mitigação eficaz de riscos em vez de um teatro regulatório.

More Insights

Aliança Escocesa de IA Destaca Ética em Inteligência Artificial

A Scottish AI Alliance lançou seu Relatório de Impacto 2024/2025, destacando um ano transformador de progresso na promoção de inteligência artificial confiável, ética e inclusiva na Escócia. O...

Controles de IA de Trump: Oportunidades e Desafios para o Mercado

A administração Trump está se preparando para novas restrições nas exportações de chips de IA para a Malásia e Tailândia, visando impedir que processadores avançados cheguem à China por meio de...

LLMOps: Potencializando IA Responsável com Python

Neste ambiente altamente competitivo, não é suficiente apenas implantar Modelos de Linguagem de Grande Escala (LLMs) — é necessário um robusto framework LLMOps para garantir a confiabilidade e o...

Fortalecendo a Proteção de Dados e a Governança de IA em Cingapura

Cingapura está respondendo proativamente aos desafios evolutivos impostos pelo uso de dados na era da inteligência artificial (IA), afirmou a Ministra de Comunicações e Informação, Josephine Teo. O...

Vigilância por IA e a Lacuna de Governança na Ásia-Pacífico

A tecnologia de vigilância alimentada por IA, especialmente o reconhecimento facial, é um exemplo clássico de tecnologias de uso duplo, promovidas como ferramentas de prevenção ao crime, mas...