Código de Práctica para Modelos de IA: Nuevas Normas de Cumplimiento

Código de Práctica para Modelos de IA de Propósito General Publicado: La Cumplimiento se Volvió Más Claro (La Participación Sigue Siendo Opcional)

El 11 de julio de 2025, la Comisión Europea publicó la versión final de su Código de Práctica para la Inteligencia Artificial de Propósito General (GPAI). Este Código está destinado a servir como una herramienta para los proveedores de modelos GPAI, ayudándoles a cumplir con las disposiciones de transparencia, copyright y seguridad que rigen los modelos de IA de propósito general, según lo establecido en la Ley de IA (artículos 53 y 55), que será aplicable a partir del 2 de agosto de 2025. La adhesión al Código es de carácter voluntario.

Desarrollado por expertos independientes a través de un proceso de múltiples partes interesadas, el Código de Práctica está estructurado en tres capítulos: (i) Transparencia, (ii) Copyright, y (iii) Seguridad y Protección. Este último capítulo está dirigido a los proveedores de modelos GPAI que presentan un riesgo sistémico y no se discutirá en este informe.

Capítulo 1: Transparencia

Los proveedores de modelos GPAI están sujetos a las obligaciones de transparencia establecidas en el artículo 53(1)(a) y (b) de la Ley de IA. Por lo tanto, deben redactar y actualizar la documentación sobre el funcionamiento de sus modelos GPAI y proporcionar dicha información a la Oficina de IA, autoridades nacionales y proveedores posteriores de sistemas de IA que utilicen sus modelos GPAI. Además de las especificaciones en los Anexos XI y XII de la Ley de IA, los proveedores pueden comprometerse a cumplir con el capítulo de Transparencia del Código de Práctica. Se describen tres medidas en el Código de Práctica:

Medida 1.1 – Redacción y mantenimiento de la documentación del modelo

En virtud de la Ley de IA, los proveedores de modelos GPAI deben redactar y actualizar la documentación que cubra, entre otros, las tareas que el modelo GPAI puede realizar, el tipo y la naturaleza de los sistemas de IA en los que se puede integrar, políticas de uso aceptable, información técnica (arquitectura, parámetros, modalidades, formatos de entrada y salida), información sobre la distribución y la licencia. Las obligaciones varían ligeramente según si la documentación está destinada a la Oficina de IA y a las autoridades nacionales (Anexo XI) o a los proveedores posteriores (Anexo XII).

El resultado más concreto del Código de Práctica es el Formulario de Documentación del Modelo. Este formulario contiene la información mínima que los proveedores de modelos GPAI se comprometen a proporcionar y “pueden elegir” completar el Formulario de Documentación del Modelo para cumplir con ese compromiso. La información que debe estar disponible (a solicitud) para la Oficina de IA, autoridades competentes nacionales y/o proveedores posteriores se agrupa en un único formulario, con una indicación para quién está destinada cada pieza de información.

Medida 1.2 – Proporcionar información relevante

Los proveedores de modelos GPAI deben divulgar públicamente información de contacto a través de su sitio web o mediante “otros medios apropiados”, de modo que la Oficina de IA y los proveedores posteriores puedan solicitar acceso a la información relevante, especialmente la información contenida en la Documentación del Modelo.

El Formulario de Documentación del Modelo recuerda al proveedor que la información a los proveedores posteriores debe proporcionarse proactivamente, mientras que la información destinada a la Oficina de IA debe estar disponible a solicitud de la Oficina de IA. También resume qué debe mencionarse en la solicitud y hace algunas observaciones sobre la información que debe divulgarse y las obligaciones de confidencialidad a las que está sujeta la Oficina de IA (y las autoridades competentes nacionales).

Medida 2.3 – Garantizar la calidad, integridad y seguridad de la información

Los proveedores de modelos GPAI firmantes siguen siendo responsables de la calidad y la integridad de la información documentada, que sirve como evidencia de cumplimiento con la Ley de IA. Se les “anima” a garantizar la calidad y seguridad de la información y los registros siguiendo “protocolos y estándares técnicos establecidos”.

Capítulo 2: Copyright

La Ley de IA contiene referencias explícitas a la “ley de la Unión sobre derechos de autor y derechos afines”. La interacción entre las obligaciones regulatorias en la Ley de IA y la ley de copyright (armonizada a nivel de la UE, pero en esencia aún gobernada por la ley nacional) es compleja, no menos debido al efecto extraterritorial de la Ley de IA.

El capítulo de Copyright del Código de Práctica proporciona orientación sobre la aplicación adecuada de la obligación de los proveedores de modelos GPAI de implementar una “política para cumplir con la ley de la Unión sobre derechos de autor y derechos afines”, en particular, en relación con la excepción para minería de texto y datos y el “opt-out” en el artículo 4(3) de la Directiva 2019/790 (art. 53(1)(c) de la Ley de IA). La obligación de divulgar información sobre el contenido utilizado para entrenar los modelos GPAI no se cubre en el Código de Práctica.

Interesantemente, los considerandos del capítulo de copyright requieren que los signatarios “reconozcan” que la ley de derechos de autor de la Unión se proporciona en directivas e identifica a las Directivas 2001/29 y 2019/790 como particularmente relevantes en relación con la Ley de IA (rec. (c)(i)). Sin embargo, el proveedor de modelos GPAI firmante sigue siendo responsable de verificar que su política de derechos de autor también cumple con la implementación nacional de la ley de la Unión (punto 2 del compromiso 1 – política de derechos de autor).

Medida 1.1 Redactar, mantener actualizado e implementar una política de derechos de autor

De acuerdo con el Código de Práctica, los proveedores de modelos GPAI deben “redactar, mantener actualizada e implementar” una política de derechos de autor, que deben describir en un único documento. Se sugiere (pero no se requiere) que un resumen de la política esté disponible públicamente.

Medida 1.2 Reproducir y extraer solo contenido protegido por derechos de autor que sea legalmente accesible al rastrear la Web

Los proveedores de modelos GPAI que utilizan web-crawlers para recopilar datos de entrenamiento están obligados a comprometerse a no eludir “efectivas” medidas de protección tecnológica (según lo dispuesto en el art. 6(3) de la Directiva 2001/29) y a excluir sitios web que son conocidos por infringir persistente y repetidamente los derechos de autor a gran escala (reconocidos por tribunales o autoridades públicas en la UE o el EEE).

Medida 1.3 Identificar y cumplir con las reservas de derechos al rastrear la Web

Los web-crawlers utilizados (directa o indirectamente) por los proveedores de modelos GPAI deben observar la reserva de derechos legible por máquina bajo el artículo 4(3) de la Directiva 2019/790. El Código de Práctica menciona ahora explícitamente el Protocolo de Exclusión de Robots (robots.txt) como un protocolo a seguir. Otros “protocolos legibles por máquina apropiados” para expresar reservas de derechos pueden surgir, y los signatarios del Código se comprometen a identificar y cumplir con dichos protocolos que sean adoptados por organizaciones de normalización internacionales o europeas, o que sean “estado del arte”. Se enfatiza la importancia de discusiones voluntarias y de buena fe sobre el desarrollo de estándares técnicos viables.

Un compromiso notable se solicita a aquellos proveedores de modelos GPAI que también proporcionan motores de búsqueda web: dichos proveedores deben observar los opt-outs expresados, por ejemplo, en los archivos robots.txt, pero deben asegurarse de que esto no conduzca a “efectos adversos” en la presentación de este contenido en los resultados de búsqueda del motor de búsqueda. La idea es limitar el riesgo de “represalias” por optar por no ser rastreado por bots de IA.

Medida 1.4 Mitigar el riesgo de resultados que infrinjan derechos de autor

Los proveedores de modelos GPAI están obligados a adoptar “salvaguardias técnicas apropiadas y proporcionadas” para prevenir salidas que infrinjan derechos de autor y para prohibir el uso que infrinja derechos de autor por parte de los usuarios en la “política de uso aceptable”. Este compromiso destaca una tensión interesante entre la Ley de IA, que parece estar satisfecha con el mejor esfuerzo del proveedor para prevenir la infracción de derechos de autor, y muchas leyes nacionales de derechos de autor, que adoptan un enfoque de responsabilidad estricta hacia la infracción de derechos de autor.

Medida 1.5 Designar un punto de contacto y habilitar la presentación de quejas

Finalmente, los signatarios se comprometen a designar un punto de contacto para la comunicación electrónica con los titulares de derechos afectados y a establecer un mecanismo para manejar quejas sobre el incumplimiento de los compromisos en el capítulo de derechos de autor del Código de Práctica.

Conclusión

Con este Código de Práctica, la Comisión está impulsando a los proveedores de modelos GPAI a cumplir con la Ley de IA de manera práctica, pero sin eliminar las incertidumbres legales sobre la interpretación de la Ley de IA. El Código de Práctica especifica correctamente que, en última instancia, solo la interpretación del Tribunal de Justicia de la Unión Europea es vinculante.

Si bien el Formulario de Documentación del Modelo es potencialmente una herramienta práctica útil, las complejas preguntas sobre la interacción entre la Ley de IA y la ley de derechos de autor de la UE y nacional, algunas de las cuales se han destacado anteriormente, están quizás en necesidad aún más urgente de respuesta.

More Insights

Modelos de Lenguaje y la Confianza: Un Análisis del Acta de IA de la UE

Este estudio sistemático examina la confianza en los modelos de lenguaje grande (LLMs) a la luz de la Ley de IA de la UE, destacando su desarrollo y adopción en diversos sectores. A pesar de sus...

¿Debería pausar la implementación de la Ley de IA de la UE?

La Comisión Europea ha rechazado las solicitudes de algunas empresas para retrasar la implementación de la Ley de IA, manteniendo el cronograma original de la legislación. Además, el primer ministro...

Controles más estrictos de IA: Ganadores y perdedores en el sector tecnológico

La administración de Trump está preparando nuevas restricciones a las exportaciones de chips de IA a Malasia y Tailandia para evitar que procesadores avanzados lleguen a China. Se prevé que estas...

Gobernanza de IA y Datos: Clave para Empresas Modernas

La gobernanza de la inteligencia artificial y la gobernanza de datos son fundamentales para garantizar el desarrollo de soluciones de IA éticas y de alta calidad. Estos marcos de gobernanza son...

Potenciando la IA Responsable: LLMOps con Python

En el panorama hipercompetitivo actual, no es suficiente con desplegar Modelos de Lenguaje Grande (LLMs); es necesario contar con un marco robusto de LLMOps para garantizar la fiabilidad y el...

Fortaleciendo la Protección de Datos y la Gobernanza de la IA en Singapur

Singapur está respondiendo proactivamente a los desafíos que plantea el uso de datos en la era de la inteligencia artificial, según la ministra de Comunicaciones e Información, Josephine Teo. La...

Vigilancia AI y el vacío de gobernanza en Asia-Pacífico

El desarrollo de tecnologías de vigilancia impulsadas por inteligencia artificial en la región de Asia-Pacífico se está expandiendo rápidamente, mientras que los marcos de gobernanza necesarios para...

Integrando IA de manera responsable en la lucha contra el crimen financiero

La inteligencia artificial generativa se ha convertido rápidamente en un tema importante en el sector financiero. A medida que las empresas financieras pasan de pequeños pilotos a implementaciones a...

La inteligencia artificial: Transformando las soluciones fiscales

La inteligencia artificial (IA) está transformando el panorama del cumplimiento fiscal, ofreciendo soluciones innovadoras que agilizan los procesos y mejoran la precisión. Con la integración de la IA...