Segurança Nacional e a Falta de Responsabilidade da IA

Quando a Segurança Nacional se Torna um Escudo para Evitar a Responsabilidade da IA

À medida que a inteligência artificial (IA) se torna parte integrante da segurança estatal e da vigilância na Europa, as salvaguardas legais destinadas a restringir seu uso estão sendo progressivamente negligenciadas. Os estados-membros da UE estão recorrendo à IA para automatizar a tomada de decisões, expandir a vigilância e consolidar o poder estatal. No entanto, muitas dessas aplicações, especialmente na vigilância biométrica e nas avaliações de risco algorítmicas, permanecem amplamente não regulamentadas no que diz respeito à segurança nacional.

De fato, as isenções amplas para a segurança nacional na legislação existente sobre IA criaram lacunas regulatórias significativas. Além disso, a definição de “segurança nacional” é tão vaga que permite aos estados contornar direitos fundamentais ao implantar IA com supervisão mínima.

O Contexto Legal e os Desafios

Num ambiente geopolítico em rápida mudança e com o aumento do autoritarismo, os riscos à segurança nacional estão se tornando uma justificativa conveniente para a vigilância irrestrita e a autoridade executiva. Essa dinâmica estabelece um precedente perigoso.

Os governos da UE e os países candidatos estão invocando a segurança nacional para justificar a implantação da IA de maneiras que evitam a supervisão regulatória, particularmente em vigilância e contraterrorismo.

Considerações da Corte de Justiça da União Europeia

Ainda que a legislação da UE existente careça de uma definição concreta de segurança nacional, a Corte de Justiça da União Europeia (CJEU) forneceu algumas orientações sobre o assunto. Segundo a jurisprudência da CJEU, a segurança nacional corresponde ao “interesse primordial em proteger as funções essenciais do Estado e os interesses fundamentais da sociedade por meio da prevenção e punição de atividades capazes de desestabilizar seriamente as estruturas constitucionais, políticas, econômicas ou sociais de um país”.

Essa interpretação foi reforçada em casos em que a CJEU associou diretamente o contraterrorismo à segurança nacional. No entanto, a corte também impôs limites, estipulando que a ameaça à segurança nacional deve ser “genuína e presente ou previsível” para justificar a retenção indiscriminada de dados.

Estudos de Caso: Uso de IA sob Justificativas de Segurança Nacional

A identificação do uso governamental da IA para fins de segurança nacional é desafiadora, uma vez que essas iniciativas costumam ser classificadas. Exemplos incluem a utilização da IA na vigilância e nos programas de segurança que os governos podem justificar sob isenções de segurança nacional.

  • Na França, a Lei de Inteligência de 2015 concedeu amplos poderes para análise algorítmica de grandes conjuntos de metadados, fortalecendo os esforços contra o terrorismo. As autoridades expandiram o escopo dos sistemas algorítmicos para incluir monitoramento de sites e aplicativos de mensagens em busca de sinais de atividades extremistas.
  • Na Hungria, a criminalização da participação em eventos do Orgulho e o uso de tecnologia de reconhecimento facial contra manifestantes levantam preocupações sobre possíveis violações da legislação da UE.
  • Na Sérvia, a aquisição de tecnologia de reconhecimento facial levanta riscos credíveis de vigilância em massa, especialmente com a implementação de decisões algorítmicas em serviços sociais.
  • Na Espanha, um sistema de decisão algorítmica foi criado para a distribuição de vouchers sociais, e a recusa do governo em fornecer acesso ao código-fonte foi justificada com base na segurança nacional.

Questões Legais e Desafios Regulatórios

A legislação da IA da UE e a Carta dos Direitos Fundamentais da UE podem servir como instrumentos úteis para restringir o poder do governo e a vigilância. Entretanto, a classificação de sistemas de IA como ferramentas de segurança nacional pode contornar essas salvaguardas.

Recomendações para Responsabilidade e Supervisão

Para proteger os direitos fundamentais nas iniciativas de segurança nacional habilitadas por IA, recomenda-se:

  1. Colaborar com jornalistas investigativos para descobrir informações sobre iniciativas de segurança nacional baseadas em IA.
  2. Buscar litígios estratégicos para garantir a aplicação rigorosa das condições estabelecidas na jurisprudência da CJEU.
  3. Engajar partes interessadas institucionais para compreender suas perspectivas e informar estratégias de defesa.
  4. Construir coalizões transfronteiriças com organizações da sociedade civil para entender tendências emergentes e compartilhar melhores práticas.

Limites Urgentes para Isenções de Segurança Nacional

A classificação de sistemas de IA como ferramentas de segurança nacional pode permitir que os governos evitem a transparência e a supervisão. Para fechar essa lacuna, são necessárias limitações claras na isenção do artigo 2 da legislação da IA da UE e a aplicação rigorosa dos padrões da CJEU.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...