Nueva Ley de la Cámara sobre la Transparencia de la IA Busca Aclarar los Datos de Entrenamiento de la IA
El 22 de enero de 2026, se presentó una propuesta bipartidista en la Cámara de Representantes que podría transformar significativamente la relación entre la ley de derechos de autor y la inteligencia artificial. Conocida como la Ley de Transparencia y Responsabilidad para las Redes de Inteligencia Artificial (TRAIN), la propuesta busca ofrecer a los propietarios de derechos de autor un camino más claro para entender si y cómo se están utilizando sus obras para entrenar modelos de IA generativa.
Proceso de Subpoena Administrativa
En el centro de la ley se encuentra un nuevo proceso de subpoena administrativa agregado a la Ley de Derechos de Autor. Según la Ley TRAIN, un propietario de derechos de autor que tenga una creencia de buena fe de que su obra fue utilizada para entrenar un modelo de IA generativa podría solicitar una subpoena, emitida por el secretario de un tribunal de distrito de EE. UU., obligando a un desarrollador de IA a divulgar copias de los materiales de entrenamiento o registros suficientes para identificarlos con certeza. La ley se aplica no solo a los modelos originales, sino también a versiones sustancialmente modificadas, incluidas aquellas reentrenadas o ajustadas después del lanzamiento inicial.
Es importante destacar que los titulares de derechos solo pueden buscar información sobre sus propias obras protegidas por derechos de autor, y no sobre los conjuntos de datos de entrenamiento más amplios utilizados por un desarrollador. Para iniciar el proceso, el solicitante debe presentar una declaración jurada que indique que la subpoena se solicita únicamente para determinar si su material protegido fue utilizado y que cualquier registro divulgado se utilizará únicamente para proteger sus derechos.
Obligaciones para los Desarrolladores
Las obligaciones para los desarrolladores son claras: deben cumplir de manera expedita o enfrentar consecuencias. La falta de cumplimiento con una subpoena válida crearía una presunción refutable de que el desarrollador copió la obra protegida, lo que podría afectar futuras litigaciones por infracción. Al mismo tiempo, la ley incluye salvaguardias contra abusos, permitiendo que los tribunales impongan sanciones a los titulares de derechos que soliciten subpoenas de mala fe bajo los estándares existentes.
Apoyo y Críticas a la Ley TRAIN
Los defensores de la Ley TRAIN la enmarcan como una medida de transparencia, argumentando que los propietarios de derechos de autor carecen actualmente de herramientas prácticas para determinar si sus obras han sido ingeridas por los opacos procesos de entrenamiento de IA. Sin embargo, los críticos pueden plantear preocupaciones sobre la carga administrativa, la confidencialidad, incluida la exposición de secretos comerciales potenciales sobre cómo se entrena un modelo, y el posible efecto inhibidor sobre el desarrollo de la IA.
Leyes Estatales y Comparaciones
Hasta ahora, solo un puñado de estados ha promulgado leyes que requieren algún tipo de divulgación sobre los datos de entrenamiento de IA, y lo hacen con diferentes alcances y mecanismos. Por ejemplo, California exige a los desarrolladores de sistemas de IA generativa que ofrezcan un resumen de alto nivel de sus datos de entrenamiento en un sitio web público. Connecticut requiere que se divulgue en los avisos de privacidad si se recopila, utiliza o vende datos personales para el entrenamiento de modelos de lenguaje grandes. Colorado exige a ciertos desarrolladores de sistemas de IA de alto riesgo proporcionar documentación sobre los datos utilizados para el entrenamiento y las medidas tomadas para mitigar la discriminación algorítmica.
A diferencia de estas leyes estatales, que dependen de divulgaciones generalizadas, la Ley TRAIN crearía un mecanismo dirigido por los titulares de derechos para obtener información específica sobre si obras protegidas particulares fueron utilizadas en el entrenamiento de IA.
Conclusión
Si se promulga, la Ley TRAIN podría reducir la necesidad de un enfoque fragmentado a nivel estatal y proporcionar un camino más amplio y efectivo para que los propietarios de contenido determinen si sus materiales están siendo utilizados para entrenar sistemas de IA.