Quando a Segurança Nacional se Torna um Escudo para Evitar a Responsabilidade da IA
À medida que a inteligência artificial (IA) se torna parte integrante da segurança estatal e da vigilância na Europa, as salvaguardas legais destinadas a restringir seu uso estão sendo progressivamente negligenciadas. Os estados-membros da UE estão recorrendo à IA para automatizar a tomada de decisões, expandir a vigilância e consolidar o poder estatal. No entanto, muitas dessas aplicações, especialmente na vigilância biométrica e nas avaliações de risco algorítmicas, permanecem amplamente não regulamentadas no que diz respeito à segurança nacional.
De fato, as isenções amplas para a segurança nacional na legislação existente sobre IA criaram lacunas regulatórias significativas. Além disso, a definição de “segurança nacional” é tão vaga que permite aos estados contornar direitos fundamentais ao implantar IA com supervisão mínima.
O Contexto Legal e os Desafios
Num ambiente geopolítico em rápida mudança e com o aumento do autoritarismo, os riscos à segurança nacional estão se tornando uma justificativa conveniente para a vigilância irrestrita e a autoridade executiva. Essa dinâmica estabelece um precedente perigoso.
Os governos da UE e os países candidatos estão invocando a segurança nacional para justificar a implantação da IA de maneiras que evitam a supervisão regulatória, particularmente em vigilância e contraterrorismo.
Considerações da Corte de Justiça da União Europeia
Ainda que a legislação da UE existente careça de uma definição concreta de segurança nacional, a Corte de Justiça da União Europeia (CJEU) forneceu algumas orientações sobre o assunto. Segundo a jurisprudência da CJEU, a segurança nacional corresponde ao “interesse primordial em proteger as funções essenciais do Estado e os interesses fundamentais da sociedade por meio da prevenção e punição de atividades capazes de desestabilizar seriamente as estruturas constitucionais, políticas, econômicas ou sociais de um país”.
Essa interpretação foi reforçada em casos em que a CJEU associou diretamente o contraterrorismo à segurança nacional. No entanto, a corte também impôs limites, estipulando que a ameaça à segurança nacional deve ser “genuína e presente ou previsível” para justificar a retenção indiscriminada de dados.
Estudos de Caso: Uso de IA sob Justificativas de Segurança Nacional
A identificação do uso governamental da IA para fins de segurança nacional é desafiadora, uma vez que essas iniciativas costumam ser classificadas. Exemplos incluem a utilização da IA na vigilância e nos programas de segurança que os governos podem justificar sob isenções de segurança nacional.
- Na França, a Lei de Inteligência de 2015 concedeu amplos poderes para análise algorítmica de grandes conjuntos de metadados, fortalecendo os esforços contra o terrorismo. As autoridades expandiram o escopo dos sistemas algorítmicos para incluir monitoramento de sites e aplicativos de mensagens em busca de sinais de atividades extremistas.
- Na Hungria, a criminalização da participação em eventos do Orgulho e o uso de tecnologia de reconhecimento facial contra manifestantes levantam preocupações sobre possíveis violações da legislação da UE.
- Na Sérvia, a aquisição de tecnologia de reconhecimento facial levanta riscos credíveis de vigilância em massa, especialmente com a implementação de decisões algorítmicas em serviços sociais.
- Na Espanha, um sistema de decisão algorítmica foi criado para a distribuição de vouchers sociais, e a recusa do governo em fornecer acesso ao código-fonte foi justificada com base na segurança nacional.
Questões Legais e Desafios Regulatórios
A legislação da IA da UE e a Carta dos Direitos Fundamentais da UE podem servir como instrumentos úteis para restringir o poder do governo e a vigilância. Entretanto, a classificação de sistemas de IA como ferramentas de segurança nacional pode contornar essas salvaguardas.
Recomendações para Responsabilidade e Supervisão
Para proteger os direitos fundamentais nas iniciativas de segurança nacional habilitadas por IA, recomenda-se:
- Colaborar com jornalistas investigativos para descobrir informações sobre iniciativas de segurança nacional baseadas em IA.
- Buscar litígios estratégicos para garantir a aplicação rigorosa das condições estabelecidas na jurisprudência da CJEU.
- Engajar partes interessadas institucionais para compreender suas perspectivas e informar estratégias de defesa.
- Construir coalizões transfronteiriças com organizações da sociedade civil para entender tendências emergentes e compartilhar melhores práticas.
Limites Urgentes para Isenções de Segurança Nacional
A classificação de sistemas de IA como ferramentas de segurança nacional pode permitir que os governos evitem a transparência e a supervisão. Para fechar essa lacuna, são necessárias limitações claras na isenção do artigo 2 da legislação da IA da UE e a aplicação rigorosa dos padrões da CJEU.