Foco na Governança da IA: Avanços Qualitativos e Desafios Emergentes
A governança da inteligência artificial (IA) deve se concentrar nas ameaças novas e não nas riscos familiares. Um novo capítulo na governança da IA está em andamento, catalisado por dois desenvolvimentos significativos.
Desenvolvimentos Recentes
Primeiramente, o sucesso da DeepSeek em desenvolver um modelo avançado de peso aberto a um custo comparativamente menor do que os principais laboratórios nos Estados Unidos demonstra que alcançar a fronteira tecnológica é mais acessível a uma gama mais ampla de atores do que se previa anteriormente.
Em segundo lugar, o discurso do Vice-Presidente JD Vance na cúpula de IA em Paris efetivamente minou o impulso que estava se formando em direção a uma abordagem internacional unificada para a segurança da IA, sinalizando uma mudança de quadros de governança global para abordagens mais nacionalistas no desenvolvimento e regulação da IA.
Segurança da IA
A segurança da IA é fundamentalmente preocupada com os saltos de capacidade que criam novos vetores de ameaça. Um foco na segurança da IA envolve direcionar a vasta maioria da atenção e dos recursos regulatórios para a defesa contra ameaças habilitadas pelas novas capacidades da IA, que representam um saltar significativo além dos perigos existentes.
Essas capacidades que cruzam limiares permitem que atores mal-intencionados realizem objetivos prejudiciais que antes eram impossíveis ou impraticáveis. Por exemplo, a violação da privacidade é um caso instrutivo que demonstra tanto a utilidade quanto as limitações do nosso quadro de limiar de capacidade.
Impacto da IA na Privacidade
A regulação tradicional de privacidade opera em um princípio simples: as organizações devem obter consentimento antes de coletar certos dados. No entanto, a IA avançada muda fundamentalmente essa equação. Sistemas de IA podem inferir informações altamente sensíveis que nunca foram explicitamente compartilhadas.
Por exemplo, modelos de aprendizado de máquina podem prever atributos pessoais e condições médicas a partir de pegadas digitais aparentemente não relacionadas, identificando marcadores de depressão a partir de padrões de linguagem ou gravidez a partir de histórico de compras.
Ameaças Emergentes na Segurança da IA
Entre as ameaças mais urgentes à segurança da IA está a democratização das capacidades de desenvolvimento de bioweapons. O que antes era domínio exclusivo de programas estatais avançados agora pode estar acessível a atores não estatais através do design de patógenos guiados por IA.
Esses avanços representam um verdadeiro salto em capacidades: a IA permite que atores mal-intencionados desenvolvam armas biológicas de maior letalidade e transmissibilidade com menos recursos.
Desafios na Regulação Atual
A paisagem legislativa atual está desalinhada com essas novas ameaças. A maioria das regulamentações tem se concentrado em questões de conteúdo, como a regulamentação de mídia gerada por IA, preocupações de discriminação e proteções de privacidade.
Embora essas preocupações sejam legítimas, elas representam um território regulatório familiar. As estruturas existentes para lidar com mídia enganosa, discriminação e privacidade podem ser adaptadas modestamente para abordar versões aprimoradas desses desafios.
Propostas para uma Nova Estrutura de Segurança
Uma estrutura de segurança eficaz para IA deve começar com o princípio de violação de limiar, priorizando ameaças onde a IA cria capacidades novas qualitativamente. Algumas intervenções potenciais incluem:
- Instituir controles específicos para capacidades que apresentam novas ameaças, como acesso supervisionado a capacidades de design biológico.
- Estabelecer uma iniciativa nacional abrangente de modernização de biodefesa que integre soluções tecnológicas avançadas com estruturas tradicionais de biosegurança.
- Autorizar e financiar um programa abrangente de fortalecimento da infraestrutura crítica para defender sistemas essenciais contra ameaças aprimoradas por IA.
Esse enfoque na segurança da IA oferece um benefício significativo: desvia a atenção regulatória de aplicações que podem causar danos, mas que são bem tratadas por outros regimes legais existentes.
Concentrar a atenção regulatória especificamente nas novas capacidades que criam novas ameaças permite que a IA “sem importância” se desenvolva sob estruturas legais existentes, garantindo que abordemos riscos genuínos enquanto permitimos que a inovação benéfica floresça.