España aprueba ley para regular contenido de IA y combatir deepfakes

España aprueba una ley para regular el contenido de IA y combatir los deepfakes

El gobierno español ha dado un paso significativo al aprobar una nueva legislación destinada a regular el contenido generado por inteligencia artificial (IA) y a imponer sanciones severas a las empresas que no etiqueten adecuadamente dicho contenido. Esta medida se enmarca en un esfuerzo más amplio para abordar el uso indebido de deepfakes, que son medios manipulados que pueden inducir a error a los espectadores.

Detalles de la legislación

Según el nuevo proyecto de ley, la falta de etiquetado correcto del contenido generado por IA se clasifica como un delito grave. Las empresas que incumplan esta norma podrían enfrentar multas de hasta €35 millones (aproximadamente $38.2 millones) o el 7% de su facturación anual global. Esta regulación es considerada más rigurosa que el marco regulatorio existente en Estados Unidos, donde el cumplimiento es, en gran medida, voluntario y varía según el estado.

Durante el anuncio de la ley, el Ministro de Transformación Digital y Función Pública de España, Óscar López, destacó la vulnerabilidad generalizada a los ataques de deepfake, que pueden involucrar videos, imágenes o audios alterados presentados como genuinos. “La IA es una herramienta muy poderosa que puede utilizarse para mejorar nuestras vidas … o para difundir desinformación y atacar la democracia”, afirmó López.

Prohibiciones y restricciones

La legislación también prohíbe el uso de técnicas subliminales que podrían manipular a individuos susceptibles. Se mencionaron ejemplos como chatbots que podrían fomentar la adicción al juego o juguetes que incitan a los niños a comportamientos de riesgo. Además, se restringe a las organizaciones de utilizar IA para clasificar a individuos basándose en datos biométricos, comportamiento o características personales para determinar el acceso a beneficios o evaluar la probabilidad de actividad delictiva.

No obstante, la ley permite el uso de vigilancia biométrica en tiempo real en espacios públicos por razones de seguridad nacional.

Supervisión de la implementación

La reciente creación de la Agencia de Supervisión de Inteligencia Artificial de España (AESIA) será responsable de supervisar la implementación de estas nuevas regulaciones. Sin embargo, áreas específicas como la privacidad de datos, el crimen, las elecciones, las calificaciones crediticias, el seguro y los mercados de capital serán gestionadas por los organismos reguladores pertinentes. Esta movida se alinea con los esfuerzos más amplios de la Unión Europea para estandarizar las regulaciones en torno a la IA.

Acta de IA de la UE: Mejora de los estándares de seguridad e impulso a la innovación

En agosto de 2024, la Comisión Europea (CE) implementó oficialmente el Acta de IA de la UE. Este acto tiene como objetivo asegurar que los sistemas de IA desarrollados y utilizados dentro de la UE cumplan con estándares de seguridad y ética diseñados para proteger los derechos fundamentales. La regulación busca crear un mercado interno unificado para la IA en toda la UE, promoviendo la adopción de tecnologías de IA mientras se fomenta un entorno propicio para la innovación y la inversión.

Como parte de su estrategia digital, la UE aspira a regular la IA para establecer mejores condiciones para el desarrollo y la aplicación de esta tecnología. La ejecución del Acta de IA estará supervisada por la Oficina de IA de la Comisión a nivel europeo, y se requerirá que los estados miembros designen autoridades nacionales antes del 2 de agosto de 2025 para garantizar el cumplimiento y realizar la vigilancia del mercado.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...