A Nova Era da Política Internacional de IA

Navegando na nova realidade da política internacional de IA

A partir de 2025, a direção estratégica da política de inteligência artificial (IA) mudou drasticamente, focando na capacidade de cada nação em “vencer a corrida global de IA” ao priorizar a liderança tecnológica nacional e a inovação. O que o futuro reserva para a política internacional de IA? Existe interesse em um trabalho significativo para abordar os riscos da IA por meio de testes e avaliações? Ou haverá uma devolução ainda maior para prioridades de adoção e investimento nacionais que deixam pouco espaço para a colaboração global?

À medida que a Índia se prepara para sediar a próxima AI Impact Summit em Nova Délhi em fevereiro, surge uma oportunidade para os governos nacionais avançarem nas discussões sobre confiança e avaliações, mesmo em meio às tensões nas conversas políticas entre garantir a segurança da IA e promover a adoção da IA.

Paris: A revolução da adoção de IA começa

O impulso inicial para políticas focadas em garantir a segurança da IA e seu potencial para apresentar riscos existenciais à humanidade começou no primeiro AI Safety Summit realizado no Reino Unido em Bletchley Park em 2023. Essa discussão foi avançada em cúpulas internacionais subsequentes em Seul, Coreia do Sul, e São Francisco, Califórnia, em 2024. No entanto, à medida que a França sediou o primeiro AI Action Summit em Paris em fevereiro deste ano, logo após a posse do presidente dos EUA, Donald Trump, para seu segundo mandato e o primeiro-ministro Keir Starmer assumir o comando de um novo governo trabalhista no Reino Unido, as discussões sobre os riscos e a segurança da IA pareciam perder impulso.

No AI Action Summit em Paris, o presidente francês, Emmanuel Macron, declarou que agora é “um momento para inovação e aceleração” na IA, enquanto o vice-presidente dos EUA, JD Vance, afirmou que “o futuro da IA não será ganho com lamentações sobre segurança.” À medida que a cúpula se concluiu, os Estados Unidos e o Reino Unido optaram por não se juntar a outros países na assinatura da Declaração sobre IA Inclusiva e Sustentável para Pessoas e o Planeta. Dias depois, o Reino Unido renomeou seu AI Safety Institute para AI Security Institute, refletindo sua mudança de foco para riscos relacionados à segurança nacional decorrentes dos modelos de IA mais avançados, em vez de abordar preocupações mais amplas sobre riscos existenciais que os sistemas de IA poderiam representar.

Mandatos de investimento e adoção de IA

Os Estados Unidos deram vários passos nessa nova direção. A administração Trump revogou várias ações executivas da era Biden sobre IA nas primeiras semanas de janeiro, incluindo a revogação da “Ordem Executiva sobre o Desenvolvimento e Uso Seguro, Seguro e Confiável da Inteligência Artificial.” Em fevereiro, a administração emitiu um pedido de informações para desenvolver um novo “Plano de Ação de IA”, de acordo com uma ordem executiva assinada em janeiro chamada “Removendo Barreiras à Liderança Americana em Inteligência Artificial.” A ordem executiva da administração Trump enfatiza a redução de encargos administrativos e regulatórios para o desenvolvimento e adoção de IA, além de uma maior alinhamento da estratégia de IA dos EUA com interesses de segurança nacional e objetivos de competitividade econômica.

Simultaneamente, surgiu um debate político nos Estados Unidos sobre se o governo federal deveria antecipar a legislação estadual sobre IA que imporia regulamentações à indústria. A indústria está preocupada que as inúmeras e variadas abordagens à legislação de IA em desenvolvimento nos níveis estaduais possam criar um mosaico de regulamentações que tornariam o ambiente de conformidade complicado e opressivo.

Adaptando-se a essa mudança na política global de IA

Dada essa mudança acentuada no tom das discussões sobre a política internacional de IA, alguns podem se perguntar se ainda existem oportunidades para avançar nas conversas sobre confiança e segurança da IA. No entanto, as empresas anseiam por certeza e a confiança continua sendo primordial para criar um ecossistema que apoie a adoção. Além disso, o cenário da IA continua a evoluir, exigindo discussões contínuas sobre “como é o ideal” quando se trata de modelos de IA usados em uma variedade de aplicações e cenários empresariais.

O próximo AI Impact Summit em Nova Délhi apresenta uma oportunidade para continuar as conversas sobre como criar um ecossistema robusto de testes e avaliações de IA pode impulsionar a inovação e fomentar a confiança, promovendo ainda mais a segurança e a adoção da IA. Existem quatro áreas-chave que os governos nacionais devem priorizar em seus esforços para promover a adoção de IA enquanto também colaboram em nível global.

1. Avaliar e abordar lacunas regulatórias com base nas novas evoluções na tecnologia de IA. A IA autônoma é a próxima evolução da tecnologia de IA. Como outras iterações da tecnologia, pode oferecer benefícios significativos, mas ao mesmo tempo, pode amplificar riscos existentes ou introduzir novos riscos.

2. Avançar discussões lideradas pela indústria sobre modelos de código aberto e pesos abertos, incluindo considerações específicas para preocupações de segurança nacional.

3. Fomentar a confiança incentivando o desenvolvimento e a adoção de testes, benchmarks e avaliações de IA.

4. Promover a colaboração entre setores público e privado em fronteiras para impulsionar a adoção de IA e gestão de riscos.

O mundo não pode perder os ganhos já alcançados por pesquisadores, formuladores de políticas e empresas que têm trabalhado para abordar os riscos da IA ao se concentrar excessivamente na adoção. As respostas necessárias para enfrentar os desafios e riscos associados à IA estão entrelaçadas com a capacidade de capitalizar as oportunidades que a IA apresenta e podem garantir a responsabilidade e a segurança dessas tecnologias nos próximos anos. Se a adoção de IA é o objetivo, então os testes de IA, avaliações e governança são os métodos.

More Insights

O Papel da Inteligência Artificial na Segurança Pública

As agências de aplicação da lei estão cada vez mais utilizando a inteligência artificial (IA) para aprimorar suas funções, especialmente com capacidades de policiamento preditivo. O mercado global de...

Quênia lidera acordo histórico da ONU sobre governança da IA

O Quênia conquistou uma grande vitória diplomática após todos os 193 Estados-Membros das Nações Unidas concordarem unanimemente em estabelecer duas instituições inovadoras para governar a inteligência...

A Nova Onda de Ameaças Cibernéticas: Da Contaminação de Dados a Agentes de IA

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente por diversos setores, oferecendo novas oportunidades, mas também expondo as organizações a riscos cibernéticos. O aumento...

Ética e Governança da IA no Sudeste Asiático

Neste artigo, Nguyen Hoang Minh Ngoc explora o panorama atual da governança e ética da IA nos países do Sudeste Asiático. Embora a IA traga benefícios significativos, riscos associados à sua...