Direitos Humanos e o Código de Práticas da IA: Um Perigo à Vista

Os Direitos Humanos são Universais, Não Opcionais

A implementação do Ato de IA da UE, que entrou em vigor em 1º de agosto de 2024, iniciou um processo de co-regulação envolvendo um grupo de trabalho com cerca de 1.000 partes interessadas de empresas de IA, academia e organizações da sociedade civil. Este grupo está nas etapas finais de redação do Código de Prática de IA de Uso Geral, um manual detalhado que orienta os desenvolvedores de IA sobre como cumprir as principais partes do Ato de IA.

Os desenvolvedores que seguem este manual recebem uma “presunção de conformidade” com o Ato, embora possam optar por cumprir suas obrigações de maneira diferente.

Preocupações com o Código de Prática

Membros do grupo de trabalho expressaram preocupações de que o rascunho do Código de Prática não protege adequadamente os direitos humanos. O Código distingue entre modelos de IA de uso geral e aqueles com risco sistêmico. Os modelos classificados como de risco sistêmico estão sujeitos a obrigações adicionais, como a realização de avaliações de risco.

No entanto, a versão atual do Código reduziu as exigências de avaliação para muitos riscos considerados essenciais. Os riscos relacionados à saúde pública, segurança e direitos fundamentais foram movidos da lista obrigatória para uma lista opcional, o que levanta sérias preocupações sobre a proteção dos direitos humanos.

Exemplos de Riscos Opcionais

A lista de riscos que agora são considerados opcionais é alarmantemente ampla:

  • Riscos à saúde pública, segurança ou segurança pública, como riscos a setores críticos e infraestrutura.
  • Riscos aos direitos fundamentais, incluindo risco à liberdade de expressão, não discriminação e proteção de dados pessoais.
  • Riscos à sociedade, como riscos ao meio ambiente e processos democráticos.

Notavelmente, a discriminação foi removida da lista de riscos obrigatórios. Apenas quatro riscos requerem avaliação compulsória sob o Código atual: armas químicas, biológicas, radiológicas e nucleares (CBRN), ofensa cibernética, perda de controle e manipulação prejudicial.

Consequências da Redução dos Padrões de Risco

O argumento dos redatores parece ser que os riscos aos direitos humanos não estão entre os principais “riscos sistêmicos” resultantes das capacidades de alto impacto de modelos poderosos de IA. Entretanto, a adoção em larga escala de modelos de IA pode resultar em impactos significativos.

O modelo R1 da DeepSeek demonstrou como modelos menores, treinados com menos recursos, podem ser tão poderosos quanto os mais avançados disponíveis atualmente. Embora o R1 não atenda ao limite de computação especificado no Ato de IA, pode ser designado como um modelo de risco sistêmico pela Comissão da UE.

Abordagens Internacionais

A versão atual do Código não apenas interpreta erroneamente o Ato de IA, mas também contradiz esforços internacionais existentes. O Código de Conduta de Hiroshima para Sistemas de IA Avançados exige que os provedores avaliem e mitiguem riscos à privacidade e discriminação. Essa abordagem é alinhada com a crescente consenso internacional em torno da segurança da IA.

Conclusão

A versão atual do Código de Prática representa um retrocesso devido à sua abordagem fraca e seletiva em relação à proteção dos direitos humanos. Os redatores devem agir decisivamente para garantir que os desenvolvedores de modelos de IA considerem os riscos que suas tecnologias apresentam aos direitos humanos. Se a UE falhar em cumprir a promessa do Ato de IA, as repercussões serão sentidas globalmente.

More Insights

Governo Britânico Sob Crítica pela Implementação de Reconhecimento Facial

O governo do Reino Unido tem sido criticado pela implementação de tecnologia de reconhecimento facial sem um quadro legal abrangente. O Instituto Ada Lovelace alertou que o uso crescente do...

A Explosão de Startups de Governança na Era da Inteligência Artificial

Com o crescimento da tecnologia de inteligência artificial (IA), as soluções de governança estão em alta demanda. A indústria global de governança de IA, avaliada em 890 milhões de dólares no ano...

O Papel dos Tribunais na Regulação da Inteligência Artificial

A regulação da inteligência artificial (IA) é desigual em todo o mundo, com algumas jurisdições já possuindo regulamentações abrangentes, enquanto outras resistem à legislação vinculativa. Os...