Derechos de Autor y la Formación de IA: Desafíos y Oportunidades

Fuera de la Biblioteca de Sombras: Uso Justo y Datos de Entrenamiento de IA

Desde el lanzamiento de los primeros Modelos de Lenguaje Grande (LLMs), se ha iniciado una ola de litigios por derechos de autor por parte de autores, músicos y organizaciones de noticias que alegan que sus obras fueron apropiadas indebidamente para construir las herramientas de IA generativa más poderosas de hoy. En respuesta, las empresas de IA han afirmado que dicho uso es un uso justo no infringente. Estas demandas se dirigen a un espectro de supuestas infracciones de derechos de autor. Algunas demandas se centran únicamente en el uso no autorizado de obras como insumos de entrenamiento, otras se enfocan en la capacidad del modelo para generar salidas supuestamente infractoras, y muchas fundamentan la responsabilidad en ambos comportamientos.

En 2025, dos fallos ofrecieron las primeras perspectivas judiciales sobre un extremo de este espectro: si el uso no autorizado de obras protegidas por derechos de autor como «insumos» para entrenar modelos de IA constituye un uso justo. Aunque los resultados de estos casos han sido ampliamente reportados — ambos fallos sugieren que entrenar modelos de IA generativa con obras protegidas por derechos de autor puede ser un uso justo — el panorama legal está lejos de ser definitivo. El uso justo sigue siendo una consulta basada en los hechos, y estas decisiones no protegen de manera amplia a los usuarios de contenido de terceros de la responsabilidad por adquisición o retención ilegal de datos, y no cierran las reclamaciones que pueden perturbar el mercado de una obra protegida por derechos de autor.

Recordatorio sobre el Uso Justo

Para probar la infracción, un demandante debe demostrar que un demandado utilizó una obra protegida por derechos de autor en violación de uno de los derechos exclusivos otorgados a un propietario de derechos de autor: los derechos a reproducir, distribuir, realizar, exhibir o adaptar una obra original sin autorización. Sin embargo, no todo uso no autorizado resulta en responsabilidad. La protección de derechos de autor incorpora ciertas limitaciones, incluido el uso justo, diseñadas para equilibrar los incentivos creativos con el interés público.

Históricamente, el uso justo ha acomodado la innovación tecnológica, como grabadoras de video domésticas y motores de búsqueda en internet, donde el desarrollo funcional requiere reproducir obras protegidas. Los tribunales analizan el uso justo evaluando y equilibrando cuatro factores estatutarios: (1) el propósito y carácter del uso, (2) la naturaleza de la obra original, (3) la cantidad y sustancialidad de la parte utilizada, y (4) los efectos en el mercado. Ningún factor es determinante, pero los tribunales a menudo centran su análisis en dos factores: el propósito y carácter del uso (incluido si el uso es «transformativo») y su efecto en el mercado potencial.

Bartz v. Anthropic

En Bartz v. Anthropic, el tribunal encontró que el uso de obras protegidas por derechos de autor para entrenar un modelo de IA era un uso justo, al menos cuando las obras fueron obtenidas legalmente. Anthropic compiló datos de entrenamiento de fuentes tanto legales (es decir, libros comprados) como ilegales (es decir, libros pirateados) y continuó reteniendo todos los datos en una biblioteca central. El tribunal separó su análisis de uso justo entre el acto de entrenar y la retención de datos por parte de Anthropic.

En cuanto al primer aspecto, el acto de entrenar el modelo, el tribunal encontró que los factores primero y cuarto favorecían el uso justo porque la creación del modelo era «cuasi-transformativa» y no producía sustitutos infractores. El tercer factor también favoreció el uso justo porque la cantidad copiada era «especialmente razonable» para el propósito de utilizar escritura de alta calidad para entrenar un LLM. Mientras que el segundo factor favorecía a los demandantes, el tribunal determinó que no era decisivo considerando el propósito transformativo del modelo.

Sin embargo, en cuanto al acto de retener copias obtenidas ilegalmente, el tribunal encontró que «cada factor apuntaba en contra del uso justo». El tribunal explicó que la piratería de copias disponibles es «inherentemente, irremediablemente infractora», incluso si las copias son utilizadas o desechadas inmediatamente. El tribunal, sin embargo, declaró que no necesitaba decidir el caso solo con esa regla porque Anthropic retuvo las copias pirateadas incluso después de decidir no usarlas. Al dividir su análisis, el tribunal advirtió que, aunque el proceso de entrenamiento es transformativo y puede estar protegido, la adquisición de materiales utilizados para facilitar el entrenamiento de IA no lo es.

Kadrey v. Meta

En Kadrey v. Meta, el tribunal también encontró que la reproducción no autorizada de obras protegidas por derechos de autor para entrenar un modelo de IA era un uso justo. Aunque Meta, al igual que Anthropic, descargó y reprodujo fuentes pirateadas para partes de sus datos de entrenamiento, el tribunal llegó a una conclusión diferente sobre la relevancia de la adquisición de datos en su análisis de uso justo.

A pesar del uso de datos de entrenamiento de «bibliotecas sombras» (repositorios digitales de obras protegidas por derechos de autor disponibles sin autorización), el tribunal encontró que el primer factor pesaba a favor del uso justo. Aunque el tribunal reconoció que el uso de bibliotecas sombras por parte de Meta era relevante para el primer factor, finalmente encontró que este factor favorecía a Meta porque la descarga era considerada un paso integral hacia el objetivo transformador final. El segundo factor favoreció a los demandantes porque los libros eran obras expresivas, pero el tribunal encontró que el tercer factor favorecía a Meta porque copiar la totalidad de las obras era razonablemente necesario para lograr el propósito transformador de entrenar el modelo. Críticamente, el tribunal se basó en gran medida en el cuarto factor, encontrando que favorecía a Meta debido a la percepción de los demandantes de que no se presentó evidencia de que el modelo de Meta perjudicara el mercado de las obras de los demandantes.

Aún así, al igual que en Bartz, el uso de obras pirateadas por parte de Meta no fue excusado de toda responsabilidad. Además de alegar que Meta había reproducido sus obras sin permiso, los demandantes presentaron una reclamación separada alegando que el uso por parte de Meta de protocolos de torrenting para descargar las bibliotecas sombras resultó en la distribución no autorizada de sus obras. Dado que ninguna de las partes solicitó un juicio sumario sobre esa cuestión, aún queda por determinar si la adquisición de datos de entrenamiento de Meta fue un uso justo.

Conclusiones

En conjunto, estas dos decisiones sugieren una tendencia hacia considerar el uso de obras protegidas por derechos de autor como insumos de entrenamiento para un modelo de IA generativa como un uso justo. Sin embargo, ambos fallos aclaran que esta protección no es absoluta. Además de los hechos únicos del entrenamiento de IA de cada parte considerados por los tribunales, el espectro general de responsabilidad por derechos de autor permanece para la adquisición de datos utilizados para entrenar IA. Mientras que ambos demandados en Bartz y Kadrey utilizaron «bibliotecas sombras» de obras para entrenar sus modelos, las teorías de responsabilidad de los casos eran diferentes. Anthropic enfrentó responsabilidad por derechos de autor por su continua retención de obras pirateadas. Pero Meta continuó enfrentando responsabilidad por derechos de autor no porque simplemente utilizara bibliotecas pirateadas, sino por cómo las adquirió. El tribunal notó que, aunque la reproducción para entrenamiento podría ser un uso justo, la distribución de obras protegidas a través de una red de torrent era una base separada para la responsabilidad.

Ambos casos también sugieren que un propósito transformativo por sí solo puede no ser suficiente para evitar la responsabilidad, particularmente ante fuertes alegaciones de daño al mercado. Significativamente, ambos tribunales notaron la ausencia de evidencia de que los modelos de IA pudieran producir salidas sustancialmente similares que pudieran sustituir las obras originales de los demandantes. Por lo tanto, si y en qué medida el análisis de uso justo podría diferir si se demostrara que un modelo produce salidas que compiten directamente con sus datos de entrenamiento sigue siendo una pregunta abierta.

Las litigaciones recién presentadas muestran que los titulares de derechos son conscientes de las preguntas abiertas que rodean las bibliotecas sombras y el daño al mercado. En un caso presentado el 28 de enero de 2026, un grupo de editores de música demandó por el uso no autorizado de sus composiciones musicales. A diferencia de la primera demanda de este tipo, sin embargo, los editores especificaron violaciones de su derecho de distribución a través del uso de bibliotecas sombras por parte de la empresa demandada, el camino de responsabilidad que se dejó abierto en Kadrey. La queja de los editores también articula cuidadosamente sus alegaciones sobre el daño al mercado, proporcionando que el modelo ha memorizado y puede repetir sus obras por instrucción del usuario, lo que actúa como un sustituto directo de sus obras.

Estos recientes fallos sobre el uso justo y las alegaciones de infracción proporcionan importantes, pero preliminares, hojas de ruta sobre cómo la IA generativa se cruza con la ley de derechos de autor y el precedente judicial. Sin embargo, a medida que esta tecnología y el panorama legal continúan cambiando, múltiples avenidas para la responsabilidad permanecen, particularmente dependiendo de cómo se obtienen, retienen y utilizan los datos de entrenamiento de IA para generar salidas.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...