Desafíos de Copyright en la Era de la IA en la Unión Europea

La Unión Europea sigue atrapada en un dilema de derechos de autor en la inteligencia artificial

La reciente publicación de las directrices de implementación de la Unión Europea para la Ley de Inteligencia Artificial (Reglamento (UE) 2024/1689) ha traído consigo ajustes en los requisitos de derechos de autor que, aunque mantienen el impulso del crecimiento de IA por ahora, también plantean nuevos desafíos.

Desafíos de los derechos de autor en el entrenamiento de modelos de IA

El Código de Práctica (CoP), emitido en julio de 2025, aborda tres cuestiones clave: la transparencia en la construcción de modelos de IA, la seguridad de estos modelos y el cumplimiento de los derechos de autor en los datos utilizados para el entrenamiento de IA. Mientras que los primeros dos aspectos son relativamente fáciles de manejar, el cumplimiento de los derechos de autor se presenta como un problema más complejo.

Los modelos de IA de frontera requieren más datos de entrenamiento para mejorar su rendimiento. Sin embargo, las obligaciones de derechos de autor limitan la cantidad de datos disponibles y, a través de los requisitos de licencia, aumentan el costo de estos datos. Esto afecta la competitividad global de la UE en el ámbito de la IA.

Provisiones problemáticas del CoP

Algunas provisiones del CoP, como la prohibición de reproducir contenido protegido por derechos de autor en las salidas de los modelos, tienen lógica. Sin embargo, ser transparente sobre el origen de los conjuntos de datos utilizados para el entrenamiento y gestionar la creciente cantidad de titulares de derechos que han optado por retirar sus datos plantea serios problemas.

Los reguladores de la UE se encuentran en una encrucijada entre la ley de derechos de autor de la UE y la competencia global en regulaciones de IA. No pueden modificar la ley rápidamente para satisfacer las necesidades de datos de los modelos de IA, pero la aplicación completa de la ley podría poner en peligro el acceso de la UE a los mejores modelos y servicios de IA, erosionando su competitividad.

La ilusión de la transparencia total

El CoP y la Ley de IA están destinados a mejorar la transparencia sobre el uso de datos de entrenamiento. Se espera que esto facilite la licencia de datos protegidos por derechos de autor y proporcione una parte justa de los ingresos de IA a los titulares de derechos. Sin embargo, esta visión optimista ignora los altos costos de transacción y las tarifas de licencia que implican negociar acuerdos con millones de titulares de derechos en línea.

El modelo de publicidad en línea no se puede transferir fácilmente a la licencia de IA. Además, la gestión colectiva de licencias no resuelve el problema de rastrear y asignar valor al uso del contenido.

Consecuencias de la falta de un marco global

La falta de una autoridad de derechos de autor global que controle el acceso a todos los datos de entrenamiento de IA agrava el problema. La UE ha optado por requerir solo un resumen de los dominios en línea más relevantes de los que se extrajeron los datos de entrenamiento, lo que puede resultar en conjuntos de datos sesgados que penalizan a las comunidades culturales y lingüísticas más pequeñas de la UE.

Esto contradice el objetivo de la Ley de IA de reducir los sesgos en los modelos de IA. Además, la CoP define los datos de entrenamiento de manera amplia, incluyendo datos personales protegidos, lo que genera más confusión y opacidad en el proceso de desarrollo de IA.

Recomendaciones políticas

El debilitamiento sutil de la aplicación de los derechos de autor en el CoP, limitando la aplicación a los datos más relevantes para el entrenamiento de IA, ha permitido que la mayoría de los desarrolladores de IA importantes se adhieran al CoP. Sin embargo, los intentos de reformar la ley de derechos de autor podrían llevar a más requisitos de transparencia y procesos de infracción innecesarios.

Una mejor solución requeriría un debate sobre el papel de la IA en la mejora del aprendizaje, la investigación y la innovación, y las condiciones bajo las cuales puede acceder a datos para alimentar ese proceso. La ley de derechos de autor, tal como está, está obstaculizando el potencial de innovación en la era de la IA.

Inspirar el tratamiento de la ley de derechos de autor en relación con modelos de IA por características pro-innovación de la ley de patentes podría ser un camino viable. Esto permitiría a los modelos de IA aprender de todo el contenido y los datos legalmente accesibles, acelerando así el crecimiento del conocimiento y la innovación en la sociedad.

More Insights

Acta de IA de la UE: Hitos y Nuevas Obligaciones

El 2 de agosto de 2025 marcó un hito clave en la implementación de la Ley de IA de la UE, donde los modelos de IA de propósito general deben cumplir con nuevos requisitos de documentación y pruebas de...

Desafíos de Copyright en la Era de la IA en la Unión Europea

Los ajustes en los requisitos de derechos de autor de la UE en el Código de Práctica de la Ley de Inteligencia Artificial mantendrán el impulso del crecimiento de la IA, pero también crearán nuevos...

Nuevas Normas de Etiquetado de IA en China para Empresas

China ha implementado nuevas reglas sobre el etiquetado de contenido generado por IA, que requieren que dicho contenido esté claramente identificado al distribuirse en plataformas chinas. Las empresas...

Construyendo IA Segura y Ética en un Entorno Amenazante

Sam Peters, el Director de Producto de ISMS.online, explica cómo las marcas pueden construir modelos de IA seguros, éticos y centrados en el cumplimiento en el actual panorama de amenazas en...

Harmonización legal de la inteligencia artificial en AIPPI 2025

La Asociación Internacional para la Protección de la Propiedad Intelectual (AIPPI) se reunirá en Yokohama del 13 al 16 de septiembre con más de 2,700 participantes. Este año, se destacan temas clave...

Divergencias en la Regulación de la IA: Colorado y el Enfoque Federal

La ley de inteligencia artificial de Colorado (CAIA) se implementará el 30 de junio de 2026 y requiere que las empresas realicen evaluaciones de impacto para los sistemas de IA de alto riesgo...