Leyes europeas contra los deepfakes: ¿Qué países están liderando la lucha?

Estudio sobre las leyes contra los deepfakes en Europa

El fenómeno de los deepfakes ha suscitado preocupación en todo el mundo, llevando a varios países europeos a implementar leyes para regular su uso. Este estudio examina las iniciativas legislativas en diferentes naciones, centrándose en Dinamarca, la Unión Europea, Francia y el Reino Unido.

Dinamismo legislativo en Dinamarca

Dinamarca ha dado un paso significativo en la lucha contra los deepfakes al proponer un proyecto de ley que otorga a los ciudadanos derechos de copyright sobre su propia imagen. Esto significa que será ilegal compartir deepfakes y otras imitaciones digitales de las características de una persona sin su consentimiento. El Ministro de Cultura de Dinamarca, Jakob Engel-Schmidt, ha declarado que esta ley es una forma de enviar un «mensaje inequívoco» a los ciudadanos sobre su derecho a su propio cuerpo y voz.

Regulación a nivel de la Unión Europea

La Unión Europea ha abordado el tema de los deepfakes a través de su AI Act, que clasifica las creaciones de inteligencia artificial en cuatro categorías: riesgo mínimo, riesgo limitado, alto riesgo e inaceptable. Los deepfakes se consideran de riesgo limitado, lo que implica que están sujetos a ciertas reglas de transparencia. Esto incluye la obligación de etiquetar el contenido generado por IA, como poner marcas de agua en los videos y divulgar los conjuntos de datos utilizados para entrenar los modelos.

Las sanciones por incumplimiento de estas reglas pueden ascender a 15 millones de euros o el 3% de la facturación global del año anterior, mientras que las prácticas prohibidas pueden conllevar multas de hasta 35 millones de euros o el 7% de la facturación global.

Francia y su legislación sobre espacios digitales

En 2024, Francia actualizó su código penal para prohibir la difusión de contenido visual o de audio creado por IA, como los deepfakes, sin el consentimiento de la persona representada. Cualquier contenido compartido debe ser claramente identificado como generado por IA. Las penas para los distribuidores de estos videos pueden llegar a un año de prisión y 15,000 euros de multa; si el contenido se comparte a través de un «servicio en línea», la pena se incrementa a dos años de prisión y 45,000 euros de multa.

Además, la legislación también incluye una prohibición específica de los deepfakes pornográficos, que pueden conllevar hasta tres años de prisión y 75,000 euros de multa.

El Reino Unido y su enfoque legal

El Reino Unido ha implementado varias leyes que abordan la creación de deepfakes, especialmente en el ámbito de la pornografía. Las enmiendas recientes a la Data (Use and Access) Bill apuntan a los «abusadores atroces» que crean imágenes falsas para «gratificación sexual o para causar alarma o humillación». Los infractores podrían enfrentarse a multas ilimitadas.

Además, se ha introducido una posible pena de prisión de dos años bajo la Sexual Offenses Act para quienes generen deepfakes sexuales. La Online Safety Act prohíbe compartir o amenazar con compartir imágenes sexuales no consensuadas en las redes sociales, obligando a las plataformas a tomar medidas para eliminar este tipo de contenido.

Sin embargo, a pesar de estas regulaciones, expertos como Julia Hörnle han señalado que la Online Safety Act no prohíbe la creación de imágenes deepfake, lo que deja a las víctimas vulnerables incluso si el contenido no se comparte públicamente.

Conclusiones

A medida que la tecnología de generación de contenido por IA avanza, los países europeos están tomando medidas para regular el uso de deepfakes. Las leyes implementadas en Dinamarca, la Unión Europea, Francia y el Reino Unido reflejan un enfoque proactivo para proteger los derechos de las personas y combatir la desinformación. Sin embargo, la efectividad de estas legislaciones dependerá de su implementación y de la capacidad de las autoridades para hacer cumplir las leyes.

More Insights

África y la Gobernanza de la IA: Hacia un Futuro Soberano

Los líderes africanos en el Foro de Gobernanza de Internet (IGF) 2025 en Oslo pidieron acciones urgentes para construir sistemas de IA soberanos y éticos adaptados a las necesidades locales. Se...

Regulaciones y Desafíos en la IA: Claves para la Cumplimiento

A medida que la IA se desarrolla en todo el mundo, se vuelve cada vez más difícil implementar regulaciones efectivas. La UE lidera con su Ley de IA, que impone obligaciones estrictas a las...

La Ruta Divergente de la IA en China

La competencia entre EE. UU. y China en inteligencia artificial se considera la rivalidad tecnológica definitoria de nuestro tiempo, con la posibilidad de que ambos países desarrollen "variedades"...

Ética de IA en medio de la rivalidad tecnológica EE.UU.-China

A medida que la rivalidad tecnológica entre Estados Unidos y China se profundiza, una agencia de la ONU está impulsando estándares globales sobre la ética de la inteligencia artificial. UNESCO...

Ley de AI Adversarial: Prohibición de Tecnología China en Agencias Federales

Un grupo bipartidista de legisladores de EE. UU. ha presentado un nuevo proyecto de ley, el "No Adversarial AI Act", que busca prohibir el uso de herramientas de inteligencia artificial desarrolladas...

Niveles de Protección para una IA Responsable en Amazon Bedrock

Amazon Bedrock Guardrails ofrece salvaguardias configurables para ayudar a construir aplicaciones de IA generativa confiables a gran escala. La introducción de niveles de salvaguardia permite a las...

Ley de Gobernanza de IA en Texas: Un Paso Hacia la Regulación Responsable

El 22 de junio de 2025, el gobernador de Texas, Greg Abbott, firmó la Ley de Gobernanza Responsable de IA de Texas (TRAIGA). Esta ley busca facilitar el desarrollo responsable de sistemas de...