Pânico Eleitoral por IA: Riscos para a Liberdade de Expressão

A Panique Eleitoral da IA: Como Políticas Baseadas no Medo Podem Limitar a Liberdade de Expressão

Enquanto os EUA e a UE moldam suas estruturas de IA, é essencial considerar as lições de experiências recentes. A narrativa impulsionada pelo medo em torno da IA e das mais recentes eleições, onde o conteúdo gerado por IA teve impacto limitado, deve servir de aviso para os legisladores que correm para aprovar leis que podem, inadvertidamente, minar valores democráticos.

A Narrativa da Desinformação da IA

Durante 2023 e 2024, veículos de mídia proeminentes expressaram preocupações sobre a influência potencial da IA nas eleições. Em abril de 2024, um importante jornal advertiu seus leitores: “Deepfakes de IA ameaçam desestabilizar eleições globais. Ninguém pode detê-los.” Pesquisas mostraram que 57% dos adultos nos Estados Unidos estavam muito preocupados com a desinformação impulsionada pela IA nas eleições. Similarmente, 40% dos eleitores europeus temiam o uso indevido da IA durante as eleições.

Incidentes gerados por IA emergiram, como robocalls com uma voz gerada por IA imitando o presidente Biden, desencorajando falsamente a participação dos eleitores. Contudo, pesquisas sugerem que a narrativa de medo em 2024 não foi respaldada por evidências. O Instituto Alan Turing não encontrou evidências significativas de que a IA alterou resultados nas eleições no Reino Unido, França ou nos EUA.

Leis Excessivas nos EUA e na Europa

Até setembro de 2024, dezenove estados dos EUA haviam promulgado leis especificamente direcionadas ao uso de IA em campanhas políticas, com alguns estados considerando medidas semelhantes. Um juiz federal na Califórnia bloqueou uma dessas leis com base em direitos de liberdade de expressão, criticando-a por agir “como um martelo em vez de um escalpelador”.

Na Europa, o Ato de IA da UE, que exige marcação e rotulagem para conteúdo gerado por IA, levanta preocupações sobre a obrigação de mitigar riscos sistêmicos. A aplicação desse ato deve ser firmemente comprometida com a proteção da liberdade de expressão e não deve se tornar uma ferramenta para suprimir injustamente discursos.

Um Caminho Mais Inteligente à Frente

O futuro Plano de Ação da IA dos EUA deve ser orientado por evidências disponíveis e evitar a promoção de proibições sobre deepfakes políticos. Em vez de medidas restritivas, soluções estruturais são necessárias. A promoção da alfabetização em IA e mídia deve ser uma prioridade, com campanhas educacionais que empoderem os indivíduos com conhecimento sobre o impacto da IA.

Finalmente, as ferramentas legais existentes, como leis de difamação e fraude, permanecem disponíveis e podem ser utilizadas quando apropriado para lidar com desinformações sem comprometer a liberdade de expressão.

More Insights

Sistema de Gestão de Risco na Lei de IA da UE

O Ato de Inteligência Artificial da União Europeia (UE) estabelece um sistema de gestão de riscos obrigatório para provedores de IA de alto risco, visando proteger a saúde, a segurança e os direitos...

Riscos Ocultos dos Agentes de IA na Governança

Dalen acredita que agora é necessária uma governança específica para a IA para essa nova geração de ferramentas, a fim de garantir que sejam implantadas de forma responsável e tragam valor...