España aprueba ley de IA con multas severas por deepfakes no etiquetados

Aprobación de la Ley de IA en España con Multas Elevadas por Deepfakes No Etiquetados

España se ha convertido en uno de los primeros países miembros de la Unión Europea en implementar su Acta de IA, aprobando una ley que, entre otras prácticas maliciosas relacionadas con la inteligencia artificial, establece multas elevadas para el contenido generado por IA que no esté etiquetado, incluyendo los deepfakes.

Según el Ministerio de Transformación Digital de España, “la falta de etiquetado adecuado de cualquier imagen, audio o video generado o manipulado por IA que represente a personas reales o inexistentes diciendo o haciendo cosas que nunca han hecho, se considerará una infracción grave”. Además, se especifica que “tal contenido debe identificarse como generado por IA de manera clara y distinguible” desde el momento de la primera interacción o exposición, en línea con la regulación de la UE.

Acta de IA de la UE

Introducida por primera vez en 2021, la Acta de IA ha pasado por un proceso de deliberación y revisión antes de ser aprobada en marzo de 2024. Esta legislación entró en vigor en los estados miembros en agosto de 2024 y será completamente aplicable a partir del 2 de agosto de 2026, permitiendo a las entidades tiempo para cumplir con las normas establecidas. La Acta se describe como un enfoque tímido para la regulación, estableciendo reglas basadas en el riesgo que los desarrolladores y desplegadores de IA deben seguir.

Uno de los puntos destacados de esta ley es la prohibición del uso de datos biométricos para entrenar algoritmos que podrían ser utilizados por agencias de aplicación de la ley para la percepción criminal, un paso hacia la reducción de sesgos en estas tecnologías. Sin embargo, esta disposición también permite excepciones para agencias de seguridad nacional y control fronterizo, lo que ha suscitado preocupaciones sobre el equilibrio entre la seguridad y los derechos individuales.

Otras disposiciones de la Ley de IA en España

La ley española establece multas de hasta 35 millones de euros o el 7% de la facturación global anual de una empresa por el etiquetado inadecuado del contenido de IA. Reuters informa que las multas también se aplicarán por la falta de supervisión humana de los sistemas de IA que incorporan biometría en sectores industriales, entre otros. En estos casos, las sanciones oscilarán entre 500,000 euros y 7.5 millones de euros, o entre el 1% y el 2% de la facturación global.

Regulación de IA y Deepfakes en India

En India, la regulación de la IA aún se encuentra en una posición inestable, con el gobierno fluctuando entre establecer un marco de IA y mantener una regulación ligera. En la última medida, el gobierno ha propuesto la creación de un Consejo de Gobernanza de IA para revisar y autorizar aplicaciones de IA. Mientras tanto, la regulación de los deepfakes sigue sin ser abordada de manera efectiva.

Las elecciones generales y estatales del año pasado vieron a muchas figuras políticas y partidos malutilizando deepfakes para difundir desinformación. A pesar de los problemas, el gobierno indio solo reiteró la prevalencia de las normas actuales de TI, dejando entrever que podría haber una ley para los deepfakes “si es necesario”.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...