AI Governance: Direitos Humanos em Equilíbrio à Medida que Gigantes da Tecnologia e Autoritários Convergem
O desenvolvimento da inteligência artificial (IA) está moldando o mundo atual de maneiras profundas e complexas. O uso de algoritmos para decisões críticas, como quem vive e quem morre, é uma realidade alarmante, especialmente em contextos de conflito e opressão. A vigilância alimentada por IA rastreia jornalistas e manifestantes, enquanto armas autônomas são exibidas como demonstrações de poder tecnológico. Essa situação levanta questões urgentes sobre quem controla essa tecnologia e como ela deve ser governada.
Deficiências na Governança
Recentemente, a Assembleia Geral da ONU adotou uma resolução para estabelecer mecanismos internacionais de governança para a IA. Esta resolução inclui a criação de um Painel Científico Internacional Independente sobre IA e um Diálogo Global sobre Governança da IA. Embora essa iniciativa represente um passo positivo, o processo de negociação revelou profundas fraturas geopolíticas.
A China, por exemplo, promove uma abordagem estatal que exclui a sociedade civil das discussões de governança, enquanto os Estados Unidos, sob a administração de Donald Trump, adotaram o tecnonacionalismo, tratando a IA como uma ferramenta de vantagem econômica e geopolítica. Em contraste, a União Europeia implementou o primeiro Ato de IA abrangente do mundo, que entrará em vigor em agosto de 2026, criando um quadro regulatório baseado em riscos e proibindo sistemas de IA considerados de risco inaceitável.
Desafios e Lacunas
Embora o Ato de IA da UE tenha avançado em algumas áreas, ele contém lacunas preocupantes. A versão final do ato permite o uso limitado de tecnologia de reconhecimento facial em determinadas circunstâncias, o que foi criticado por grupos de direitos humanos como inadequado. Além disso, tecnologias de reconhecimento emocional são proibidas em escolas e locais de trabalho, mas ainda são permitidas para controle de imigração e aplicação da lei, levantando preocupações sobre viés racial.
Adicionalmente, a crescente impacto ambiental do desenvolvimento da IA também exige atenção. A interação com chatbots de IA consome significativamente mais eletricidade do que buscas na internet padrão, e a Agência Internacional de Energia prevê um aumento substancial no consumo de eletricidade por data centers até 2030.
Necessidade de Defensores
O atual mosaico de regulamentações regionais, resoluções internacionais não vinculativas e autorregulação da indústria não é suficiente para governar uma tecnologia com implicações globais tão profundas. O interesse próprio dos estados continua a prevalecer sobre as necessidades humanas coletivas e os direitos universais.
É imperativo que a comunidade internacional fortaleça os mecanismos de governança da IA, começando com acordos vinculativos sobre sistemas autônomos letais. A UE deve fechar as lacunas em seu Ato de IA, especialmente em relação a aplicações militares e tecnologias de vigilância. Os governos em todo o mundo precisam estabelecer mecanismos de coordenação que possam efetivamente contrabalançar o controle das gigantes da tecnologia sobre o desenvolvimento e a implantação da IA.
A luta pela governança da IA centrada nos direitos humanos depende da emergência de defensores dentro do sistema internacional que priorizem os direitos humanos sobre interesses nacionais ou lucros corporativos.