El Pánico Electoral por la IA y sus Consecuencias para la Libertad de Expresión

El Pánico Electoral por la IA: Cómo las Políticas Impulsadas por el Miedo Podrían Limitar la Libre Expresión

A medida que Estados Unidos y la Unión Europea dan forma a sus marcos de IA, es crucial aprender de experiencias recientes. La narrativa impulsada por el miedo en torno a la IA, especialmente durante las elecciones más recientes, donde el contenido generado por IA tuvo un impacto limitado, debería advertir a los legisladores sobre la necesidad de no apresurarse en la creación de leyes que puedan socavar inadvertidamente los valores democráticos. Los formuladores de políticas deben evitar prohibiciones absolutas sobre los deepfakes políticos y abstenerse de imponer mandatos que obliguen a los modelos de IA a conformarse a valores específicos y arbitrarios. En su lugar, deberían centrarse en promover la alfabetización en IA y la transparencia, asegurando que los investigadores tengan acceso a datos.

La Narrativa de la Desinformación por IA

Durante 2023 y 2024, medios de comunicación prominentes expresaron preocupaciones sobre la posible influencia de la IA en las elecciones. En abril de 2024, un artículo de The Washington Post advertía: “Los deepfakes de IA amenazan con desestabilizar las elecciones globales. Nadie puede detenerlos.” De manera similar, la Associated Press compartió preocupaciones sobre cómo la IA podría potenciar la desinformación y alterar las elecciones en la UE. Estas advertencias fueron respaldadas por muchas otras organizaciones de renombre, las cuales han circulado durante años.

La preocupación pública coincidió con las advertencias mediáticas. En Estados Unidos, una encuesta de Pew realizada en septiembre encontró que el 57% de los adultos estaban muy preocupados por la desinformación impulsada por IA en las elecciones. Asimismo, el 40% de los votantes europeos temía el mal uso de la IA durante las elecciones. La Comisaria de la UE, Věra Jourová, describió vívidamente a los deepfakes de políticos como “una bomba atómica que podría cambiar el curso de las preferencias de los votantes.”

Varios incidentes generados por IA emergieron. Hasta 20,000 votantes en New Hampshire recibieron robocalls con una voz generada por IA que imitaba al presidente Biden, desalentando falsamente la participación electoral. El expresidente Donald Trump circuló una imagen generada por IA de la estrella pop Taylor Swift apoyándolo, lo que llevó a Swift a responder en las redes sociales para corregir la desinformación.

Sin embargo, la investigación sugiere que la narrativa impulsada por el miedo sobre la IA en 2024 no estaba respaldada por evidencia. El Alan Turing Institute no encontró evidencia significativa de que la IA alterara los resultados en las elecciones del Reino Unido, Francia, Europa o Estados Unidos. Del mismo modo, investigadores de Princeton concluyeron que la temida “ola” de desinformación impulsada por IA era mucho menos extensa e impactante de lo anticipado. La mitad del contenido generado por IA analizado no era engañoso, mientras que el contenido engañoso alcanzaba principalmente a audiencias ya predispuestas a creerlo.

Aunque la desinformación generada por IA no alteró notablemente los comportamientos de votación, podría haber reforzado divisiones existentes. Además, estas conclusiones pueden no aplicarse de manera uniforme en cada contexto, particularmente en elecciones locales o en diferentes contextos nacionales, y pueden requerir actualizaciones a medida que evoluciona la tecnología. La falta de datos y transparencia también presentó desafíos significativos al evaluar el impacto de la IA.

Leyes Excesivas en EE. UU. y Europa

Para septiembre de 2024, diecinueve estados de EE. UU. habían promulgado leyes específicamente dirigidas al uso de IA en campañas políticas, y varios otros estaban considerando medidas similares. Hasta marzo de 2025, tres estados (California, Minnesota y Texas) habían prohibido la creación o distribución de deepfakes en relación con las elecciones bajo ciertas circunstancias. Un juez federal en California bloqueó una de estas leyes por motivos de libertad de expresión, criticándola por actuar “como un martillo en lugar de un escalpel” que sofocaba inconstitucionalmente el discurso político, incluida la sátira política.

Los defensores de la libertad de expresión han advertido sobre los riesgos de estas leyes. La ley de Minnesota, por ejemplo, criminaliza la difusión de deepfakes en el período previo a una elección si se hace con la intención de “dañar” a un candidato o “influir” en el resultado—términos que son subjetivos y centrales al discurso político protegido. Estas leyes a menudo carecen de excepciones para la sátira o la parodia, herramientas de expresión poderosas para criticar el poder.

En Europa, la UE finalizó el AI Act, que obliga a las IA a etiquetar y marcar el contenido generado por IA. La principal preocupación con el AI Act radica en su obligación amplia para que los modelos de IA poderosos mitiguen riesgos sistémicos, incluyendo estándares vagos como limitar los impactos negativos en “la sociedad en su conjunto.” Esta noción problemática es susceptible de sofocar el discurso legal.

Un Camino Más Inteligente Hacia Adelante

El próximo AI Action Plan de EE. UU. debe ser guiado por la evidencia disponible y abstenerse de promover prohibiciones sobre los deepfakes políticos. De manera similar, la legislación a nivel estatal con disposiciones comparables debe ser derogada o revisada. Medidas menos restrictivas, como el etiquetado y la marca de agua, pueden ofrecer una alternativa, pero también pueden plantear preocupaciones de la Primera Enmienda. Además, su efectividad es cuestionable, ya que los actores malintencionados pueden eludir estas salvaguardias.

En la UE, la Comisión Europea debe asegurar que la aplicación de la AI Act proteja robustamente la libertad de expresión. La obligación de mitigar riesgos sistémicos no debe interpretarse como un requisito para que los modelos se alineen con puntos de vista específicos y debe permitir espacio para contenido controvertido o disidente. Este principio debe ser claramente articulado en el Código de Práctica.

En última instancia, la regulación efectiva debe basarse en la evidencia y ser claramente articulada. De lo contrario, los legisladores arriesgan socavar la libertad de expresión, la creatividad y la sátira, componentes vitales de un discurso democrático saludable.

More Insights

Gobernanza de IA en Salud: Desafíos y Oportunidades

El paisaje regulatorio de la IA ha experimentado cambios monumentales en los últimos seis meses, con un enfoque creciente en la innovación en lugar de la regulación. Sin embargo, es crucial mantener...

La industria de IA exige un retraso en la ley básica ante regulaciones vagas

Se han planteado preocupaciones en la industria de que los estándares regulatorios ambiguos dentro de la ley básica de IA podrían obstaculizar el crecimiento del sector. Recientemente, Huang Jeong-a...

Cumpliendo con el GDPR y la Ley de IA de la UE en Marketing

Como comercializadores o dueños de negocios, sabemos lo desafiante que puede ser llegar a la audiencia adecuada en el momento oportuno. La conformidad con el GDPR es crucial para garantizar la...

La pirámide de riesgos de la Ley de IA de la UE

Una de las características definitorias de la Ley de IA de la UE es su enfoque basado en el riesgo, donde los sistemas de IA no se tratan por igual. La ley clasifica los sistemas de IA en cuatro...

Empresas de IA afirman que las regulaciones existentes pueden gobernar la IA agentiva

Las empresas de inteligencia artificial están adoptando la IA agentiva, que se considera la próxima evolución de la IA generativa. A medida que la innovación avanza, los desarrolladores de IA...

La UE prohíbe el uso de software de IA en reuniones en línea

La Comisión Europea ha prohibido inesperadamente el uso de asistentes virtuales impulsados por IA durante las reuniones en línea, a pesar de su creciente popularidad. Este movimiento ha suscitado...

Diseñando Confianza en la IA Responsable

El rápido avance de la inteligencia artificial (IA) en la tecnología cotidiana presenta grandes oportunidades, así como desafíos éticos significativos. Los diseñadores de productos están en la...

Interoperabilidad en la Regulación de la IA: Caminos hacia un Futuro Sostenible

A medida que nos encontramos en una encrucijada crítica en el desarrollo de la IA, surge un desafío de gobernanza que podría sofocar la innovación y crear divisiones digitales globales. La actual...