Leyes europeas contra los deepfakes: ¿Qué países están liderando la lucha?

Estudio sobre las leyes contra los deepfakes en Europa

El fenómeno de los deepfakes ha suscitado preocupación en todo el mundo, llevando a varios países europeos a implementar leyes para regular su uso. Este estudio examina las iniciativas legislativas en diferentes naciones, centrándose en Dinamarca, la Unión Europea, Francia y el Reino Unido.

Dinamismo legislativo en Dinamarca

Dinamarca ha dado un paso significativo en la lucha contra los deepfakes al proponer un proyecto de ley que otorga a los ciudadanos derechos de copyright sobre su propia imagen. Esto significa que será ilegal compartir deepfakes y otras imitaciones digitales de las características de una persona sin su consentimiento. El Ministro de Cultura de Dinamarca, Jakob Engel-Schmidt, ha declarado que esta ley es una forma de enviar un «mensaje inequívoco» a los ciudadanos sobre su derecho a su propio cuerpo y voz.

Regulación a nivel de la Unión Europea

La Unión Europea ha abordado el tema de los deepfakes a través de su AI Act, que clasifica las creaciones de inteligencia artificial en cuatro categorías: riesgo mínimo, riesgo limitado, alto riesgo e inaceptable. Los deepfakes se consideran de riesgo limitado, lo que implica que están sujetos a ciertas reglas de transparencia. Esto incluye la obligación de etiquetar el contenido generado por IA, como poner marcas de agua en los videos y divulgar los conjuntos de datos utilizados para entrenar los modelos.

Las sanciones por incumplimiento de estas reglas pueden ascender a 15 millones de euros o el 3% de la facturación global del año anterior, mientras que las prácticas prohibidas pueden conllevar multas de hasta 35 millones de euros o el 7% de la facturación global.

Francia y su legislación sobre espacios digitales

En 2024, Francia actualizó su código penal para prohibir la difusión de contenido visual o de audio creado por IA, como los deepfakes, sin el consentimiento de la persona representada. Cualquier contenido compartido debe ser claramente identificado como generado por IA. Las penas para los distribuidores de estos videos pueden llegar a un año de prisión y 15,000 euros de multa; si el contenido se comparte a través de un «servicio en línea», la pena se incrementa a dos años de prisión y 45,000 euros de multa.

Además, la legislación también incluye una prohibición específica de los deepfakes pornográficos, que pueden conllevar hasta tres años de prisión y 75,000 euros de multa.

El Reino Unido y su enfoque legal

El Reino Unido ha implementado varias leyes que abordan la creación de deepfakes, especialmente en el ámbito de la pornografía. Las enmiendas recientes a la Data (Use and Access) Bill apuntan a los «abusadores atroces» que crean imágenes falsas para «gratificación sexual o para causar alarma o humillación». Los infractores podrían enfrentarse a multas ilimitadas.

Además, se ha introducido una posible pena de prisión de dos años bajo la Sexual Offenses Act para quienes generen deepfakes sexuales. La Online Safety Act prohíbe compartir o amenazar con compartir imágenes sexuales no consensuadas en las redes sociales, obligando a las plataformas a tomar medidas para eliminar este tipo de contenido.

Sin embargo, a pesar de estas regulaciones, expertos como Julia Hörnle han señalado que la Online Safety Act no prohíbe la creación de imágenes deepfake, lo que deja a las víctimas vulnerables incluso si el contenido no se comparte públicamente.

Conclusiones

A medida que la tecnología de generación de contenido por IA avanza, los países europeos están tomando medidas para regular el uso de deepfakes. Las leyes implementadas en Dinamarca, la Unión Europea, Francia y el Reino Unido reflejan un enfoque proactivo para proteger los derechos de las personas y combatir la desinformación. Sin embargo, la efectividad de estas legislaciones dependerá de su implementación y de la capacidad de las autoridades para hacer cumplir las leyes.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...