A UE Acelera a Censura com Novas Regras de IA

Regulamentação da UE Aumenta a Censura de Conservadores com a Regulação de IA

No dia 18 de julho, a Comissão Europeia anunciou novos padrões de “segurança e proteção” que exigem que empresas de tecnologia moderem e censuram conteúdos em modelos de inteligência artificial (IA) de uso geral, a fim de prevenir “ódio” e “discriminação”.

O Código de Prática de IA de Uso Geral

O Código de Prática de IA de Uso Geral obriga desenvolvedores de IA e empresas de tecnologia a garantir que os modelos de IA sejam “seguros”, incluindo a censura de conteúdos que sejam “odiados, radicalizantes ou falsos”. Este novo regulamento tem o potencial de aumentar significativamente a censura e o controle social em todas as principais plataformas de tecnologia.

Riscos de Manipulação e Discriminação

Uma seção dos novos padrões destaca a “manipulação prejudicial” como um risco principal, definindo-a em referência a narrativas políticas populistas contra políticas de gênero e programas de imigração da UE. A “manipulação prejudicial” é definida como “a distorção estratégica do comportamento ou crenças humanas, visando grandes populações ou tomadores de decisão em situações críticas por meio de persuasão, engano ou direcionamento personalizado”.

De acordo com o regulamento, essa manipulação “poderia minar processos democráticos e direitos fundamentais, incluindo a exploração com base em características protegidas”. No contexto da UE, características protegidas referem-se amplamente a questões como status migratório, orientação sexual e identidade de gênero.

Identificação e Mitigação de Riscos Sistêmicos

As empresas de tecnologia devem primeiro identificar um conjunto amplo de “riscos sistêmicos” sob as categorias de saúde pública, segurança, direitos fundamentais e sociedade como um todo. Outros perigos específicos identificados incluem “desalinhamento com valores humanos” e “viés discriminatório”. Após identificar tais riscos, as empresas devem analisar e mitigar qualquer risco potencial monitorando e filtrando as entradas e saídas do modelo.

Ferramentas Voluntárias e Conformidade com a Lei de IA

Os padrões são uma “ferramenta voluntária” destinada a demonstrar que as empresas de tecnologia estão em conformidade com a legislação da UE sobre inteligência artificial, conhecida como Lei de IA. Embora sejam apenas voluntários, as empresas que adotarem os padrões serão consideradas em conformidade com a Lei de IA, o que reduzirá sua carga administrativa e proporcionará mais segurança legal.

Impacto das Medidas de Censura Existentes

Esses novos regulamentos se somam às exaustivas medidas de censura que as empresas de tecnologia já são obrigadas a adotar sob a Lei de Serviços Digitais da UE. A Comissão Europeia já exigiu que grandes empresas de tecnologia censurassem por meio do Código de Conduta sobre Desinformação, que, embora inicialmente adotado como uma regulamentação voluntária em 2018, agora é vinculativo sob a Lei de Serviços Digitais de 2025.

Críticas e Preocupações

O Vice-Presidente dos EUA expressou críticas às regras de censura da Lei de Serviços Digitais da UE durante uma cúpula de IA em Paris. Ele afirmou que a IA deve permanecer livre de viés ideológico e que a IA americana não será cooptada como uma ferramenta para censura autoritária, alertando sobre os possíveis efeitos da Lei de IA da UE sobre a inovação.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...