Código de Práctica para Modelos de IA: Nuevas Normas de Cumplimiento

Código de Práctica para Modelos de IA de Propósito General Publicado: La Cumplimiento se Volvió Más Claro (La Participación Sigue Siendo Opcional)

El 11 de julio de 2025, la Comisión Europea publicó la versión final de su Código de Práctica para la Inteligencia Artificial de Propósito General (GPAI). Este Código está destinado a servir como una herramienta para los proveedores de modelos GPAI, ayudándoles a cumplir con las disposiciones de transparencia, copyright y seguridad que rigen los modelos de IA de propósito general, según lo establecido en la Ley de IA (artículos 53 y 55), que será aplicable a partir del 2 de agosto de 2025. La adhesión al Código es de carácter voluntario.

Desarrollado por expertos independientes a través de un proceso de múltiples partes interesadas, el Código de Práctica está estructurado en tres capítulos: (i) Transparencia, (ii) Copyright, y (iii) Seguridad y Protección. Este último capítulo está dirigido a los proveedores de modelos GPAI que presentan un riesgo sistémico y no se discutirá en este informe.

Capítulo 1: Transparencia

Los proveedores de modelos GPAI están sujetos a las obligaciones de transparencia establecidas en el artículo 53(1)(a) y (b) de la Ley de IA. Por lo tanto, deben redactar y actualizar la documentación sobre el funcionamiento de sus modelos GPAI y proporcionar dicha información a la Oficina de IA, autoridades nacionales y proveedores posteriores de sistemas de IA que utilicen sus modelos GPAI. Además de las especificaciones en los Anexos XI y XII de la Ley de IA, los proveedores pueden comprometerse a cumplir con el capítulo de Transparencia del Código de Práctica. Se describen tres medidas en el Código de Práctica:

Medida 1.1 – Redacción y mantenimiento de la documentación del modelo

En virtud de la Ley de IA, los proveedores de modelos GPAI deben redactar y actualizar la documentación que cubra, entre otros, las tareas que el modelo GPAI puede realizar, el tipo y la naturaleza de los sistemas de IA en los que se puede integrar, políticas de uso aceptable, información técnica (arquitectura, parámetros, modalidades, formatos de entrada y salida), información sobre la distribución y la licencia. Las obligaciones varían ligeramente según si la documentación está destinada a la Oficina de IA y a las autoridades nacionales (Anexo XI) o a los proveedores posteriores (Anexo XII).

El resultado más concreto del Código de Práctica es el Formulario de Documentación del Modelo. Este formulario contiene la información mínima que los proveedores de modelos GPAI se comprometen a proporcionar y “pueden elegir” completar el Formulario de Documentación del Modelo para cumplir con ese compromiso. La información que debe estar disponible (a solicitud) para la Oficina de IA, autoridades competentes nacionales y/o proveedores posteriores se agrupa en un único formulario, con una indicación para quién está destinada cada pieza de información.

Medida 1.2 – Proporcionar información relevante

Los proveedores de modelos GPAI deben divulgar públicamente información de contacto a través de su sitio web o mediante “otros medios apropiados”, de modo que la Oficina de IA y los proveedores posteriores puedan solicitar acceso a la información relevante, especialmente la información contenida en la Documentación del Modelo.

El Formulario de Documentación del Modelo recuerda al proveedor que la información a los proveedores posteriores debe proporcionarse proactivamente, mientras que la información destinada a la Oficina de IA debe estar disponible a solicitud de la Oficina de IA. También resume qué debe mencionarse en la solicitud y hace algunas observaciones sobre la información que debe divulgarse y las obligaciones de confidencialidad a las que está sujeta la Oficina de IA (y las autoridades competentes nacionales).

Medida 2.3 – Garantizar la calidad, integridad y seguridad de la información

Los proveedores de modelos GPAI firmantes siguen siendo responsables de la calidad y la integridad de la información documentada, que sirve como evidencia de cumplimiento con la Ley de IA. Se les “anima” a garantizar la calidad y seguridad de la información y los registros siguiendo “protocolos y estándares técnicos establecidos”.

Capítulo 2: Copyright

La Ley de IA contiene referencias explícitas a la “ley de la Unión sobre derechos de autor y derechos afines”. La interacción entre las obligaciones regulatorias en la Ley de IA y la ley de copyright (armonizada a nivel de la UE, pero en esencia aún gobernada por la ley nacional) es compleja, no menos debido al efecto extraterritorial de la Ley de IA.

El capítulo de Copyright del Código de Práctica proporciona orientación sobre la aplicación adecuada de la obligación de los proveedores de modelos GPAI de implementar una “política para cumplir con la ley de la Unión sobre derechos de autor y derechos afines”, en particular, en relación con la excepción para minería de texto y datos y el “opt-out” en el artículo 4(3) de la Directiva 2019/790 (art. 53(1)(c) de la Ley de IA). La obligación de divulgar información sobre el contenido utilizado para entrenar los modelos GPAI no se cubre en el Código de Práctica.

Interesantemente, los considerandos del capítulo de copyright requieren que los signatarios “reconozcan” que la ley de derechos de autor de la Unión se proporciona en directivas e identifica a las Directivas 2001/29 y 2019/790 como particularmente relevantes en relación con la Ley de IA (rec. (c)(i)). Sin embargo, el proveedor de modelos GPAI firmante sigue siendo responsable de verificar que su política de derechos de autor también cumple con la implementación nacional de la ley de la Unión (punto 2 del compromiso 1 – política de derechos de autor).

Medida 1.1 Redactar, mantener actualizado e implementar una política de derechos de autor

De acuerdo con el Código de Práctica, los proveedores de modelos GPAI deben “redactar, mantener actualizada e implementar” una política de derechos de autor, que deben describir en un único documento. Se sugiere (pero no se requiere) que un resumen de la política esté disponible públicamente.

Medida 1.2 Reproducir y extraer solo contenido protegido por derechos de autor que sea legalmente accesible al rastrear la Web

Los proveedores de modelos GPAI que utilizan web-crawlers para recopilar datos de entrenamiento están obligados a comprometerse a no eludir “efectivas” medidas de protección tecnológica (según lo dispuesto en el art. 6(3) de la Directiva 2001/29) y a excluir sitios web que son conocidos por infringir persistente y repetidamente los derechos de autor a gran escala (reconocidos por tribunales o autoridades públicas en la UE o el EEE).

Medida 1.3 Identificar y cumplir con las reservas de derechos al rastrear la Web

Los web-crawlers utilizados (directa o indirectamente) por los proveedores de modelos GPAI deben observar la reserva de derechos legible por máquina bajo el artículo 4(3) de la Directiva 2019/790. El Código de Práctica menciona ahora explícitamente el Protocolo de Exclusión de Robots (robots.txt) como un protocolo a seguir. Otros “protocolos legibles por máquina apropiados” para expresar reservas de derechos pueden surgir, y los signatarios del Código se comprometen a identificar y cumplir con dichos protocolos que sean adoptados por organizaciones de normalización internacionales o europeas, o que sean “estado del arte”. Se enfatiza la importancia de discusiones voluntarias y de buena fe sobre el desarrollo de estándares técnicos viables.

Un compromiso notable se solicita a aquellos proveedores de modelos GPAI que también proporcionan motores de búsqueda web: dichos proveedores deben observar los opt-outs expresados, por ejemplo, en los archivos robots.txt, pero deben asegurarse de que esto no conduzca a “efectos adversos” en la presentación de este contenido en los resultados de búsqueda del motor de búsqueda. La idea es limitar el riesgo de “represalias” por optar por no ser rastreado por bots de IA.

Medida 1.4 Mitigar el riesgo de resultados que infrinjan derechos de autor

Los proveedores de modelos GPAI están obligados a adoptar “salvaguardias técnicas apropiadas y proporcionadas” para prevenir salidas que infrinjan derechos de autor y para prohibir el uso que infrinja derechos de autor por parte de los usuarios en la “política de uso aceptable”. Este compromiso destaca una tensión interesante entre la Ley de IA, que parece estar satisfecha con el mejor esfuerzo del proveedor para prevenir la infracción de derechos de autor, y muchas leyes nacionales de derechos de autor, que adoptan un enfoque de responsabilidad estricta hacia la infracción de derechos de autor.

Medida 1.5 Designar un punto de contacto y habilitar la presentación de quejas

Finalmente, los signatarios se comprometen a designar un punto de contacto para la comunicación electrónica con los titulares de derechos afectados y a establecer un mecanismo para manejar quejas sobre el incumplimiento de los compromisos en el capítulo de derechos de autor del Código de Práctica.

Conclusión

Con este Código de Práctica, la Comisión está impulsando a los proveedores de modelos GPAI a cumplir con la Ley de IA de manera práctica, pero sin eliminar las incertidumbres legales sobre la interpretación de la Ley de IA. El Código de Práctica especifica correctamente que, en última instancia, solo la interpretación del Tribunal de Justicia de la Unión Europea es vinculante.

Si bien el Formulario de Documentación del Modelo es potencialmente una herramienta práctica útil, las complejas preguntas sobre la interacción entre la Ley de IA y la ley de derechos de autor de la UE y nacional, algunas de las cuales se han destacado anteriormente, están quizás en necesidad aún más urgente de respuesta.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...