Governança de IA: Direitos Humanos em Jogo

Governança de IA: Direitos Humanos em Jogo à Medida que Gigantes da Tecnologia e Autoritários Convergem

BRUXELAS — Algoritmos decidem quem vive e quem morre na Faixa de Gaza. Sistemas de vigilância alimentados por inteligência artificial (IA) monitoram jornalistas na Sérvia. Armas autônomas são exibidas nas ruas de Pequim como demonstrações de poder tecnológico. Isso não é ficção distópica; é a realidade de hoje. À medida que a IA transforma o mundo, a questão de quem controla essa tecnologia e como ela é governada tornou-se uma prioridade urgente.

Faltas na Governança

A IA se estende a sistemas de vigilância que podem rastrear manifestantes, campanhas de desinformação que podem desestabilizar democracias e aplicações militares que desumanizam conflitos ao remover a agência humana de decisões de vida ou morte. Isso é possibilitado pela ausência de salvaguardas adequadas.

No mês passado, a Assembleia Geral das Nações Unidas adotou uma resolução para estabelecer os primeiros mecanismos internacionais — um Painel Científico Internacional Independente sobre IA e um Diálogo Global sobre Governança de IA — destinados a governar a tecnologia, acordados como parte do Compacto Digital Global na Cúpula do Futuro em setembro. Essa resolução não vinculativa marcou um primeiro passo positivo em direção a regulamentações mais robustas. No entanto, seu processo de negociação revelou profundas fraturas geopolíticas.

Através de sua Iniciativa Global de Governança de IA, a China defende uma abordagem liderada pelo Estado que exclui completamente a sociedade civil das discussões de governança, ao mesmo tempo em que se posiciona como líder do sul global. Ela enquadra o desenvolvimento da IA como uma ferramenta para avanço econômico e objetivos sociais, apresentando essa visão como uma alternativa à dominância tecnológica ocidental.

Enquanto isso, os Estados Unidos sob Donald Trump adotaram o tecnonacionalismo, tratando a IA como uma ferramenta de vantagem econômica e geopolítica. Decisões recentes, incluindo uma tarifa de 100% sobre chips de IA importados e a compra de uma participação de 10% na fabricante de chips Intel, sinalizam um recuo da cooperação multilateral em favor de arranjos bilaterais transacionais.

A União Europeia adotou uma abordagem diferente, implementando a primeira Lei de IA abrangente do mundo, que entrará em vigor em agosto de 2026. Seu quadro regulatório baseado em riscos representa um progresso, banindo sistemas de IA considerados de “risco inaceitável”, enquanto exige medidas de transparência para outros. No entanto, a legislação contém lacunas preocupantes.

Embora inicialmente tenha proposto banir a tecnologia de reconhecimento facial em tempo real de forma incondicional, a versão final da Lei de IA permite o uso limitado com salvaguardas que grupos de direitos humanos argumentam serem inadequadas. Além disso, enquanto tecnologias de reconhecimento emocional são banidas em escolas e locais de trabalho, permanecem permitidas para a aplicação da lei e controle de imigração, uma decisão particularmente preocupante, dado o viés racial documentado em sistemas existentes. A coalizão ProtectNotSurveil alertou que migrantes e minorias raciais da Europa estão servindo como campos de teste para ferramentas de vigilância e rastreamento alimentadas por IA. O mais crítico, a Lei de IA isenta os sistemas usados para fins de segurança nacional e drones autônomos usados em guerras.

Impactos Ambientais da IA

O crescente impacto climático e ambiental do desenvolvimento da IA adiciona uma camada de urgência às questões de governança. Interações com chatbots de IA consomem aproximadamente 10 vezes mais eletricidade do que buscas padrão na internet. A Agência Internacional de Energia projeta que o consumo de eletricidade dos centros de dados globais mais que dobrará até 2030, com a IA impulsionando a maior parte desse aumento. As emissões da Microsoft cresceram 29% desde 2020 devido à infraestrutura relacionada à IA, enquanto o Google removeu silenciosamente sua promessa de emissões líquidas zero de seu site, à medida que as operações de IA aumentaram sua pegada de carbono em 48% entre 2019 e 2023. A expansão da IA está impulsionando a construção de novas usinas a gás e atrasando planos para descomissionar instalações de carvão, em contradição direta com a necessidade de acabar com o uso de combustíveis fósseis para limitar o aumento da temperatura global.

Necessidade de Campeões na Governança de IA

O atual mosaico de regulamentações regionais, resoluções internacionais não vinculativas e autorregulação laxista da indústria está muito aquém do necessário para governar uma tecnologia com profundas implicações globais. O interesse próprio do Estado continua a prevalecer sobre as necessidades humanas coletivas e os direitos universais, enquanto as empresas que possuem sistemas de IA acumulam imenso poder, em grande parte sem controle.

O caminho a seguir requer um reconhecimento de que a governança de IA não é meramente uma questão técnica ou econômica — trata-se de distribuição de poder e responsabilidade. Qualquer estrutura regulatória que não enfrente a concentração de capacidades de IA nas mãos de alguns gigantes da tecnologia inevitavelmente falhará. Abordagens que excluem as vozes da sociedade civil ou priorizam a vantagem competitiva nacional em detrimento das proteções dos direitos humanos provarão ser inadequadas ao desafio.

A comunidade internacional deve urgentemente fortalecer os mecanismos de governança de IA, começando com acordos vinculativos sobre sistemas de armas autônomas letais que estão paralisados nas discussões da ONU há mais de uma década. A UE deve fechar as lacunas em sua Lei de IA, particularmente em relação a aplicações militares e tecnologias de vigilância. Os governos em todo o mundo precisam estabelecer mecanismos de coordenação que possam efetivamente contrabalançar o controle dos gigantes da tecnologia sobre o desenvolvimento e a implantação da IA.

A sociedade civil não deve ficar sozinha nesta luta. Qualquer esperança de uma mudança em direção a uma governança de IA centrada nos direitos humanos depende do surgimento de campeões dentro do sistema internacional que priorizem os direitos humanos sobre interesses nacionais definidos de forma restrita e lucros corporativos. Com o desenvolvimento da IA acelerando rapidamente, não há tempo a perder.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...