Pânico Eleitoral por IA: Riscos para a Liberdade de Expressão

A Panique Eleitoral da IA: Como Políticas Baseadas no Medo Podem Limitar a Liberdade de Expressão

Enquanto os EUA e a UE moldam suas estruturas de IA, é essencial considerar as lições de experiências recentes. A narrativa impulsionada pelo medo em torno da IA e das mais recentes eleições, onde o conteúdo gerado por IA teve impacto limitado, deve servir de aviso para os legisladores que correm para aprovar leis que podem, inadvertidamente, minar valores democráticos.

A Narrativa da Desinformação da IA

Durante 2023 e 2024, veículos de mídia proeminentes expressaram preocupações sobre a influência potencial da IA nas eleições. Em abril de 2024, um importante jornal advertiu seus leitores: “Deepfakes de IA ameaçam desestabilizar eleições globais. Ninguém pode detê-los.” Pesquisas mostraram que 57% dos adultos nos Estados Unidos estavam muito preocupados com a desinformação impulsionada pela IA nas eleições. Similarmente, 40% dos eleitores europeus temiam o uso indevido da IA durante as eleições.

Incidentes gerados por IA emergiram, como robocalls com uma voz gerada por IA imitando o presidente Biden, desencorajando falsamente a participação dos eleitores. Contudo, pesquisas sugerem que a narrativa de medo em 2024 não foi respaldada por evidências. O Instituto Alan Turing não encontrou evidências significativas de que a IA alterou resultados nas eleições no Reino Unido, França ou nos EUA.

Leis Excessivas nos EUA e na Europa

Até setembro de 2024, dezenove estados dos EUA haviam promulgado leis especificamente direcionadas ao uso de IA em campanhas políticas, com alguns estados considerando medidas semelhantes. Um juiz federal na Califórnia bloqueou uma dessas leis com base em direitos de liberdade de expressão, criticando-a por agir “como um martelo em vez de um escalpelador”.

Na Europa, o Ato de IA da UE, que exige marcação e rotulagem para conteúdo gerado por IA, levanta preocupações sobre a obrigação de mitigar riscos sistêmicos. A aplicação desse ato deve ser firmemente comprometida com a proteção da liberdade de expressão e não deve se tornar uma ferramenta para suprimir injustamente discursos.

Um Caminho Mais Inteligente à Frente

O futuro Plano de Ação da IA dos EUA deve ser orientado por evidências disponíveis e evitar a promoção de proibições sobre deepfakes políticos. Em vez de medidas restritivas, soluções estruturais são necessárias. A promoção da alfabetização em IA e mídia deve ser uma prioridade, com campanhas educacionais que empoderem os indivíduos com conhecimento sobre o impacto da IA.

Finalmente, as ferramentas legais existentes, como leis de difamação e fraude, permanecem disponíveis e podem ser utilizadas quando apropriado para lidar com desinformações sem comprometer a liberdade de expressão.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...