Regulamentação da UE Aumenta a Censura de Conservadores com a Regulação de IA
No dia 18 de julho, a Comissão Europeia anunciou novos padrões de “segurança e proteção” que exigem que empresas de tecnologia moderem e censuram conteúdos em modelos de inteligência artificial (IA) de uso geral, a fim de prevenir “ódio” e “discriminação”.
O Código de Prática de IA de Uso Geral
O Código de Prática de IA de Uso Geral obriga desenvolvedores de IA e empresas de tecnologia a garantir que os modelos de IA sejam “seguros”, incluindo a censura de conteúdos que sejam “odiados, radicalizantes ou falsos”. Este novo regulamento tem o potencial de aumentar significativamente a censura e o controle social em todas as principais plataformas de tecnologia.
Riscos de Manipulação e Discriminação
Uma seção dos novos padrões destaca a “manipulação prejudicial” como um risco principal, definindo-a em referência a narrativas políticas populistas contra políticas de gênero e programas de imigração da UE. A “manipulação prejudicial” é definida como “a distorção estratégica do comportamento ou crenças humanas, visando grandes populações ou tomadores de decisão em situações críticas por meio de persuasão, engano ou direcionamento personalizado”.
De acordo com o regulamento, essa manipulação “poderia minar processos democráticos e direitos fundamentais, incluindo a exploração com base em características protegidas”. No contexto da UE, características protegidas referem-se amplamente a questões como status migratório, orientação sexual e identidade de gênero.
Identificação e Mitigação de Riscos Sistêmicos
As empresas de tecnologia devem primeiro identificar um conjunto amplo de “riscos sistêmicos” sob as categorias de saúde pública, segurança, direitos fundamentais e sociedade como um todo. Outros perigos específicos identificados incluem “desalinhamento com valores humanos” e “viés discriminatório”. Após identificar tais riscos, as empresas devem analisar e mitigar qualquer risco potencial monitorando e filtrando as entradas e saídas do modelo.
Ferramentas Voluntárias e Conformidade com a Lei de IA
Os padrões são uma “ferramenta voluntária” destinada a demonstrar que as empresas de tecnologia estão em conformidade com a legislação da UE sobre inteligência artificial, conhecida como Lei de IA. Embora sejam apenas voluntários, as empresas que adotarem os padrões serão consideradas em conformidade com a Lei de IA, o que reduzirá sua carga administrativa e proporcionará mais segurança legal.
Impacto das Medidas de Censura Existentes
Esses novos regulamentos se somam às exaustivas medidas de censura que as empresas de tecnologia já são obrigadas a adotar sob a Lei de Serviços Digitais da UE. A Comissão Europeia já exigiu que grandes empresas de tecnologia censurassem por meio do Código de Conduta sobre Desinformação, que, embora inicialmente adotado como uma regulamentação voluntária em 2018, agora é vinculativo sob a Lei de Serviços Digitais de 2025.
Críticas e Preocupações
O Vice-Presidente dos EUA expressou críticas às regras de censura da Lei de Serviços Digitais da UE durante uma cúpula de IA em Paris. Ele afirmou que a IA deve permanecer livre de viés ideológico e que a IA americana não será cooptada como uma ferramenta para censura autoritária, alertando sobre os possíveis efeitos da Lei de IA da UE sobre a inovação.