Transparencia en la Inteligencia Artificial Generativa

TRAIN Act Apunta a la Transparencia en las Prácticas de Entrenamiento de IA Generativa

Representantes de ambos partidos han introducido un proyecto de ley denominado Transparency and Responsibility for Artificial Intelligence Networks (TRAIN) Act en la Cámara de Representantes de EE. UU. El objetivo legislativo es proporcionar un mecanismo que ayude a músicos, artistas, escritores y otros creadores a determinar si su trabajo protegido por derechos de autor fue utilizado para entrenar modelos de inteligencia artificial generativa sin su permiso, y, de ser así, a buscar compensación por dicho uso.

Definición y Mecanismo Propuesto

El proyecto de ley propuesto crearía un nuevo mecanismo legal que permitiría a los propietarios de derechos de autor utilizar el poder de citación de los tribunales federales para obtener información sobre los materiales utilizados para entrenar modelos de IA generativa. La legislación establecería la primera definición legal federal de “modelos de IA generativa”. Un modelo de IA generativa se definiría como un modelo de IA que “emula la estructura y características de los datos de entrada para generar contenido sintético derivado”, incluyendo imágenes, videos, audio, texto y otros contenidos digitales.

Bajo el marco propuesto, un propietario de una o más obras protegidas por derechos de autor tendría derecho a solicitar una citación que obligue a un desarrollador de IA generativa a producir copias o registros suficientes para identificar las obras protegidas por derechos de autor que se utilizaron para entrenar el modelo del desarrollador. Para obtener una citación, el propietario de derechos de autor debería presentar una solicitud a un secretario del tribunal de distrito de EE. UU. que incluya una citación propuesta y una declaración jurada que atestigüe la buena fe subjetiva del propietario en creer que el desarrollador utilizó alguna o todas las obras protegidas por derechos de autor para entrenar su modelo.

Provisiones de Cumplimiento

El TRAIN Act también incluye dos provisiones de cumplimiento. Primero, si un desarrollador no cumple con una citación, el tribunal puede aplicar una presunción refutable de que el desarrollador sí utilizó las obras protegidas por derechos de autor para entrenar su modelo. Segundo, si un propietario de derechos de autor solicita una citación de mala fe, el destinatario puede buscar sanciones bajo la Regla Federal de Procedimiento Civil 11.

Implicaciones del TRAIN Act

Si se promulga, el TRAIN Act ampliaría significativamente las obligaciones de transparencia para los desarrolladores de modelos de IA generativa y proporcionaría a los propietarios de derechos de autor una nueva herramienta para investigar posibles usos no autorizados de sus obras.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...