Gobierno español aprueba ley para etiquetar contenido generado por IA

Aprobación del Proyecto de Ley para la Etiquetado de Contenido Generado por IA en España

El gobierno central de España ha aprobado un proyecto de ley que regula el uso ético, inclusivo y beneficioso de la inteligencia artificial (IA). La propuesta fue anunciada tras el consejo de ministros del 12 de marzo y se adapta a la regulación de la UE, que ya se centra en el uso adecuado de la IA.

Objetivos de la Regulación

Según el ministro de transformación digital y administración pública, Óscar López, esta regulación completa el gran escudo europeo de derechos digitales, que protege a los ciudadanos en el contexto actual. La regulación se presenta como un pionero a nivel nacional e internacional y busca armonizar la legislación nacional sobre nuevas herramientas digitales.

Proceso de Aprobación

Después del anuncio, el proyecto de ley continuará procesándose a través del procedimiento de urgencia, aunque muchas de las regulaciones ya están en vigor. Desde agosto pasado, la Ley Europea de IA ha estado regulando el uso de la inteligencia artificial, restringiendo la comercialización y el uso de sistemas que empleen técnicas engañosas o que puedan manipular el comportamiento o la toma de decisiones de las personas.

Prohibiciones y Regulaciones Específicas

La ley de la UE también prohíbe el uso de sistemas de IA para:

  • Predecir el riesgo de que una persona cometa un delito basándose únicamente en su perfil o características.
  • Expandir bases de datos de reconocimiento facial extrayendo imágenes de internet o CCTV sin selección.
  • La categorización individual de personas basándose en datos biométricos.
  • Inferir emociones en entornos laborales o educativos.
  • Facilitar sistemas de identificación biométrica remota ‘en tiempo real’ en espacios públicos para fines de aplicación de la ley, con ciertas excepciones.

Óscar López destacó: «La inteligencia artificial es una herramienta muy poderosa, pero puede tener usos buenos y malos.» Con este proyecto de ley, se identifican riesgos y prácticas prohibidas, como las técnicas subliminales o el reconocimiento biométrico en espacios públicos, así como la obligación de etiquetar deepfakes.

Supervisión y Cumplimiento

Las autoridades españolas responsables de supervisar el cumplimiento de la ley serán:

  • La Agencia Española de Protección de Datos en casos relacionados con biometría.
  • El Consejo General del Poder Judicial en casos vinculados al ámbito de la justicia.
  • La Junta Electoral Central en casos relacionados con la implementación de la IA en procesos electorales.

La Agencia Española de Supervisión de IA (AESIA) se encargará de las demás aplicaciones.

Multas por Deepfakes

El proyecto de ley también detalla sanciones severas, que van de 7.5 a 35 millones de euros, o entre el 2% y el 7% de la facturación global de la empresa responsable. La cantidad puede ser reducida para PYMES (pequeñas y medianas empresas).

Las infracciones graves incluirán el incumplimiento de la obligación de etiquetar correctamente cualquier imagen, audio o video que haya sido generado o manipulado con IA y que muestre a personas reales o inexistentes diciendo o haciendo cosas que nunca hicieron, o en lugares donde nunca estuvieron, definidas como deepfake.

Este proyecto de ley coincide con la controversia en torno a un video deepfake difundido por el partido conservador Partido Popular de España, titulado La isla de las corrupciones. El contenido, que fue eliminado tras protestas en la República Dominicana, muestra imágenes del país caribeño y miembros del partido socialista en el gobierno, insinuando prácticas de corrupción.

More Insights

Control y cumplimiento en la era de la IA soberana en manufactura

Los nubes de IA soberanas proporcionan tanto control como cumplimiento, abordando las crecientes preocupaciones en torno a la residencia de datos y el riesgo regulatorio. En un mundo donde la adopción...

Ética en la Inteligencia Artificial: Avances de la Alianza Escocesa

La Alianza Escocesa de IA ha publicado su Informe de Impacto 2024/2025, destacando un año transformador en la promoción de una inteligencia artificial ética e inclusiva en Escocia. El informe revela...

El futuro del cumplimiento con la Ley de IA de la UE

La Comisión Europea anunció el viernes pasado que no habrá un retraso en la Ley de IA de la UE, lo que ha provocado reacciones encontradas. Aunque algunas partes de la Ley ya están en vigor, los...

Modelos de Lenguaje y la Confianza: Un Análisis del Acta de IA de la UE

Este estudio sistemático examina la confianza en los modelos de lenguaje grande (LLMs) a la luz de la Ley de IA de la UE, destacando su desarrollo y adopción en diversos sectores. A pesar de sus...

¿Debería pausar la implementación de la Ley de IA de la UE?

La Comisión Europea ha rechazado las solicitudes de algunas empresas para retrasar la implementación de la Ley de IA, manteniendo el cronograma original de la legislación. Además, el primer ministro...

Controles más estrictos de IA: Ganadores y perdedores en el sector tecnológico

La administración de Trump está preparando nuevas restricciones a las exportaciones de chips de IA a Malasia y Tailandia para evitar que procesadores avanzados lleguen a China. Se prevé que estas...

Gobernanza de IA y Datos: Clave para Empresas Modernas

La gobernanza de la inteligencia artificial y la gobernanza de datos son fundamentales para garantizar el desarrollo de soluciones de IA éticas y de alta calidad. Estos marcos de gobernanza son...

Potenciando la IA Responsable: LLMOps con Python

En el panorama hipercompetitivo actual, no es suficiente con desplegar Modelos de Lenguaje Grande (LLMs); es necesario contar con un marco robusto de LLMOps para garantizar la fiabilidad y el...

Fortaleciendo la Protección de Datos y la Gobernanza de la IA en Singapur

Singapur está respondiendo proactivamente a los desafíos que plantea el uso de datos en la era de la inteligencia artificial, según la ministra de Comunicaciones e Información, Josephine Teo. La...