A UE Acelera a Censura com Novas Regras de IA

Regulamentação da UE Aumenta a Censura de Conservadores com a Regulação de IA

No dia 18 de julho, a Comissão Europeia anunciou novos padrões de “segurança e proteção” que exigem que empresas de tecnologia moderem e censuram conteúdos em modelos de inteligência artificial (IA) de uso geral, a fim de prevenir “ódio” e “discriminação”.

O Código de Prática de IA de Uso Geral

O Código de Prática de IA de Uso Geral obriga desenvolvedores de IA e empresas de tecnologia a garantir que os modelos de IA sejam “seguros”, incluindo a censura de conteúdos que sejam “odiados, radicalizantes ou falsos”. Este novo regulamento tem o potencial de aumentar significativamente a censura e o controle social em todas as principais plataformas de tecnologia.

Riscos de Manipulação e Discriminação

Uma seção dos novos padrões destaca a “manipulação prejudicial” como um risco principal, definindo-a em referência a narrativas políticas populistas contra políticas de gênero e programas de imigração da UE. A “manipulação prejudicial” é definida como “a distorção estratégica do comportamento ou crenças humanas, visando grandes populações ou tomadores de decisão em situações críticas por meio de persuasão, engano ou direcionamento personalizado”.

De acordo com o regulamento, essa manipulação “poderia minar processos democráticos e direitos fundamentais, incluindo a exploração com base em características protegidas”. No contexto da UE, características protegidas referem-se amplamente a questões como status migratório, orientação sexual e identidade de gênero.

Identificação e Mitigação de Riscos Sistêmicos

As empresas de tecnologia devem primeiro identificar um conjunto amplo de “riscos sistêmicos” sob as categorias de saúde pública, segurança, direitos fundamentais e sociedade como um todo. Outros perigos específicos identificados incluem “desalinhamento com valores humanos” e “viés discriminatório”. Após identificar tais riscos, as empresas devem analisar e mitigar qualquer risco potencial monitorando e filtrando as entradas e saídas do modelo.

Ferramentas Voluntárias e Conformidade com a Lei de IA

Os padrões são uma “ferramenta voluntária” destinada a demonstrar que as empresas de tecnologia estão em conformidade com a legislação da UE sobre inteligência artificial, conhecida como Lei de IA. Embora sejam apenas voluntários, as empresas que adotarem os padrões serão consideradas em conformidade com a Lei de IA, o que reduzirá sua carga administrativa e proporcionará mais segurança legal.

Impacto das Medidas de Censura Existentes

Esses novos regulamentos se somam às exaustivas medidas de censura que as empresas de tecnologia já são obrigadas a adotar sob a Lei de Serviços Digitais da UE. A Comissão Europeia já exigiu que grandes empresas de tecnologia censurassem por meio do Código de Conduta sobre Desinformação, que, embora inicialmente adotado como uma regulamentação voluntária em 2018, agora é vinculativo sob a Lei de Serviços Digitais de 2025.

Críticas e Preocupações

O Vice-Presidente dos EUA expressou críticas às regras de censura da Lei de Serviços Digitais da UE durante uma cúpula de IA em Paris. Ele afirmou que a IA deve permanecer livre de viés ideológico e que a IA americana não será cooptada como uma ferramenta para censura autoritária, alertando sobre os possíveis efeitos da Lei de IA da UE sobre a inovação.

More Insights

Vigilância Inteligente: Segurança em Tempos de Privacidade

A vigilância impulsionada por IA aumenta a segurança, mas apresenta riscos de viés e erosão das liberdades civis. Os desafios regulatórios são diversos, variando desde a proibição de reconhecimento...

A certificação como chave para uma IA confiável e sustentável

A certificação está se tornando uma vantagem competitiva na adoção de IA, conforme regulamentos como o Ato de IA da União Europeia entram em vigor. As empresas que demonstram conformidade e governança...

Inteligência Artificial Explicável: Confiabilidade em Tempos Modernos

A Inteligência Artificial Explicável (XAI) é essencial para construir confiança e garantir transparência em áreas críticas como saúde e finanças. Regulamentações agora exigem explicações claras das...

Fluxos de Trabalho de IA Responsáveis para Pesquisa em UX

A pesquisa de UX é tão forte quanto as decisões humanas que a orientam, e decisões equivocadas podem distorcer os resultados. Com a chegada da IA, é fascinante observar como ela pode acelerar e...

A evolução da IA Agente no setor bancário

A IA agentiva está revolucionando o setor bancário ao automatizar processos complexos e melhorar a experiência do cliente. No entanto, a transparência e a responsabilidade permanecem desafios...