De Huaweigate ao Ato de IA: Como Incorporar o Viés
Recentemente, Bruxelas foi abalada por mais um escândalo de corrupção, desta vez envolvendo o gigante da tecnologia chinesa Huawei. Os escritórios da empresa, localizados atrás do Parlamento Europeu, foram alvo de uma operação policial que resultou na apreensão de documentos e na prisão de 15 ex e atuais MEPs dos grupos EPP e S&D. A investigação, conduzida pelos promotores belgas, aponta para a corrupção ativa dentro do Parlamento Europeu, envolvendo remunerações para a adoção de posições políticas, presentes excessivos, como alimentos e despesas de viagem, além de convites regulares para jogos de futebol, tudo com o intuito de promover interesses comerciais privados em decisões políticas.
A pesquisa foi realizada por Follow the Money, Le Soir e Knack, e resultou em 21 endereços sendo revistados em Bruxelas, Flandres, Wallonia e Portugal, com várias prisões realizadas. Porém, enquanto a atenção se volta para a Huawei e a China, é importante destacar um escândalo ainda mais profundo: o fracasso contínuo das instituições europeias em proteger a democracia contra operações de influência. As falhas na transparência, na monitorização de lobby e na aplicação de ética são sistêmicas e permanecem, levando à necessidade urgente de implementar um corpo ético que estabeleça normas éticas comuns em todas as instituições da UE.
A Ação da Huawei e o Ato de IA
No contexto do Ato de IA, um relatório publicado em janeiro por um pesquisador da Corporate Europe Observatory revela que muitas das principais corporações de tecnologia do mundo, incluindo a Huawei, estão profundamente envolvidas na criação de normas permissivas que podem esvaziar o Ato de IA da UE. Com pouca ou nenhuma transparência, organizações privadas de definição de normas estão elaborando regras que têm status legal na UE. Especialistas independentes e a sociedade civil estão sub-representados e subfinanciados, lutando contra o domínio corporativo.
O Impacto da Definição de Normas
O Ato de IA tem um duplo propósito, que é ao mesmo tempo comercial e social. O primeiro objetivo é garantir que a IA seja amplamente adotada pela sociedade, enquanto o segundo é assegurar que essa adoção ocorra de maneira confiável. No entanto, essa abordagem já levou a vários escândalos, como o caso na Holanda, onde um algoritmo utilizado para detectar fraudes no auxílio à infância se mostrou extremamente enviesado contra pais solteiros e pessoas que não falam holandês. Esse algoritmo acusou injustamente centenas de pessoas, levando a consequências devastadoras em suas vidas.
O relatório destaca que a definição de normas é uma prática dominada pela indústria, onde as decisões são tomadas em círculos fechados, excluindo vozes da sociedade civil. O processo de definição de normas deve ser questionado, pois não pode ser utilizado para questões de políticas públicas, especialmente no que diz respeito aos direitos fundamentais.
Conclusões e Recomendações
É fundamental que as instituições democráticas reassumam o controle sobre a definição de normas e a formulação de políticas relacionadas à IA. A sociedade precisa ter a capacidade de decidir quando e como a IA será utilizada, evitando que se torne uma caixa-preta que impacta a vida das pessoas sem seu conhecimento ou consentimento. A implementação de regras legalmente vinculativas para garantir a transparência e a responsabilidade no lobby e nas atividades de definição de normas é uma necessidade urgente.
Este estudo ressalta o papel crítico que a Huawei e outras corporações de tecnologia desempenham na definição de normas que moldam o futuro da IA na Europa, enfatizando a importância de processos transparentes e inclusivos que respeitem os direitos humanos e a ética.