España aprueba ley para regular contenido de IA y combatir deepfakes

España aprueba una ley para regular el contenido de IA y combatir los deepfakes

El gobierno español ha dado un paso significativo al aprobar una nueva legislación destinada a regular el contenido generado por inteligencia artificial (IA) y a imponer sanciones severas a las empresas que no etiqueten adecuadamente dicho contenido. Esta medida se enmarca en un esfuerzo más amplio para abordar el uso indebido de deepfakes, que son medios manipulados que pueden inducir a error a los espectadores.

Detalles de la legislación

Según el nuevo proyecto de ley, la falta de etiquetado correcto del contenido generado por IA se clasifica como un delito grave. Las empresas que incumplan esta norma podrían enfrentar multas de hasta €35 millones (aproximadamente $38.2 millones) o el 7% de su facturación anual global. Esta regulación es considerada más rigurosa que el marco regulatorio existente en Estados Unidos, donde el cumplimiento es, en gran medida, voluntario y varía según el estado.

Durante el anuncio de la ley, el Ministro de Transformación Digital y Función Pública de España, Óscar López, destacó la vulnerabilidad generalizada a los ataques de deepfake, que pueden involucrar videos, imágenes o audios alterados presentados como genuinos. “La IA es una herramienta muy poderosa que puede utilizarse para mejorar nuestras vidas … o para difundir desinformación y atacar la democracia”, afirmó López.

Prohibiciones y restricciones

La legislación también prohíbe el uso de técnicas subliminales que podrían manipular a individuos susceptibles. Se mencionaron ejemplos como chatbots que podrían fomentar la adicción al juego o juguetes que incitan a los niños a comportamientos de riesgo. Además, se restringe a las organizaciones de utilizar IA para clasificar a individuos basándose en datos biométricos, comportamiento o características personales para determinar el acceso a beneficios o evaluar la probabilidad de actividad delictiva.

No obstante, la ley permite el uso de vigilancia biométrica en tiempo real en espacios públicos por razones de seguridad nacional.

Supervisión de la implementación

La reciente creación de la Agencia de Supervisión de Inteligencia Artificial de España (AESIA) será responsable de supervisar la implementación de estas nuevas regulaciones. Sin embargo, áreas específicas como la privacidad de datos, el crimen, las elecciones, las calificaciones crediticias, el seguro y los mercados de capital serán gestionadas por los organismos reguladores pertinentes. Esta movida se alinea con los esfuerzos más amplios de la Unión Europea para estandarizar las regulaciones en torno a la IA.

Acta de IA de la UE: Mejora de los estándares de seguridad e impulso a la innovación

En agosto de 2024, la Comisión Europea (CE) implementó oficialmente el Acta de IA de la UE. Este acto tiene como objetivo asegurar que los sistemas de IA desarrollados y utilizados dentro de la UE cumplan con estándares de seguridad y ética diseñados para proteger los derechos fundamentales. La regulación busca crear un mercado interno unificado para la IA en toda la UE, promoviendo la adopción de tecnologías de IA mientras se fomenta un entorno propicio para la innovación y la inversión.

Como parte de su estrategia digital, la UE aspira a regular la IA para establecer mejores condiciones para el desarrollo y la aplicación de esta tecnología. La ejecución del Acta de IA estará supervisada por la Oficina de IA de la Comisión a nivel europeo, y se requerirá que los estados miembros designen autoridades nacionales antes del 2 de agosto de 2025 para garantizar el cumplimiento y realizar la vigilancia del mercado.

More Insights

Carrera Armamentista de IA y el Impacto de los Aranceles en la Innovación

Los aranceles pueden tener un impacto multifacético en el avance de la inteligencia artificial (IA) y la automatización, actuando como un posible obstáculo y, paradójicamente, un posible catalizador...

Plan de Acción de la Comisión Europea para la Soberanía en IA

La Comisión Europea ha lanzado su Plan de Acción para la IA, una estrategia integral destinada a establecer a Europa como líder global en inteligencia artificial. El plan se centra en aumentar la...

El Dilema del AI: Innovación y Regulación en Singapur

Singapur se prepara para celebrar seis décadas de progreso, mientras lanza su ambicioso Estrategia Nacional de IA 2.0, que se centra en la innovación y regulación de la inteligencia artificial. Sin...

IA Responsable en el Sector FinTech

Lexy Kassan discute los aspectos críticos de la inteligencia artificial responsable, centrándose en actualizaciones regulatorias como la Ley de IA de la UE y sus implicaciones para FinTech. Explica...

IA Centrada en el Humano: Hacia un Futuro Ético y Responsable

La inteligencia artificial centrada en el ser humano (HCAI) se refiere al desarrollo de sistemas de IA que priorizan los valores humanos y la colaboración entre humanos y máquinas. Este enfoque ético...

La Regulación de la IA en la UE: Un Cambio Decisivo

El Acta de Inteligencia Artificial de la UE establece un marco regulatorio uniforme para todos los estados miembros, buscando equilibrar la innovación con la seguridad de los ciudadanos. Se trata de...

Actualización de las Cláusulas Contractuales Modelos de IA de la UE

La Comunidad de Práctica de la UE sobre la Contratación Pública de IA ha publicado una versión actualizada de sus Cláusulas Contractuales Modelo de IA (MCC-AI) el 5 de marzo de 2025. Estas cláusulas...

Impacto de la Ley de IA de la UE en Sistemas de Reconocimiento Emocional en el Trabajo

La inteligencia artificial de reconocimiento emocional (Emotion AI) utiliza datos biométricos y otros conjuntos de datos para identificar y analizar emociones. Desde la entrada en vigor de la Ley de...