Plazo del Acta de IA Superado por Retraso en el Código GPAI de la UE

El Plazo del Acta de IA No Cumplido: Retraso del Código de Práctica de GPAI de la UE Hasta Agosto

La versión final del Código de Práctica de la Inteligencia Artificial General (GPAI) de la Unión Europea debía ser publicada antes del 2 de mayo. Sin embargo, este plazo ha pasado sin que se materialice el documento esperado. La Oficina de IA de la UE ha confirmado que el Código ha sido retrasado, y la nueva fecha de publicación se espera para “agosto”. Este aplazamiento plantea la posibilidad de que no haya mucho tiempo entre la publicación del borrador final y la entrada en vigor de las disposiciones del Acta de IA de la UE relacionadas con los proveedores de modelos de GPAI, que comenzarán a aplicarse el 2 de agosto.

¿Qué es el Código de GPAI?

El Código de GPAI es un código de práctica voluntario, redactado por «expertos independientes» con la participación de interesados. Su objetivo es ayudar a los proveedores de modelos de GPAI a demostrar el cumplimiento de sus obligaciones bajo los Artículos 53 y 56 del Acta de IA de la UE. Esto incluye disposiciones relacionadas con la transparencia, derechos de autor y seguridad.

La mayoría de los compromisos establecidos en el Código de GPAI solo aplican a los proveedores de modelos de GPAI con riesgo sistémico, aunque algunos se aplican a todos los proveedores de modelos de GPAI en el mercado de la UE. Esto incluye un compromiso relacionado con los derechos de autor, que ha generado controversia y ha sido seguido de cerca por muchos.

¿Por Qué el Retraso?

En el momento de redactar este informe, no se han publicado declaraciones oficiales por parte de la Oficina de IA de la UE que expliquen el retraso. Sin embargo, los informes de prensa sugieren dos razones principales que se han dado a los interesados en el proceso de redacción:

  1. Dar más tiempo a los participantes para proporcionar retroalimentación sobre el tercer borrador del Código de GPAI.
  2. Permitir que los participantes respondan a la consulta separada y en curso de la Comisión de la UE sobre su borrador propuesto de directrices de GPAI, que también busca aclarar ciertos aspectos de las obligaciones de los proveedores de modelos de GPAI bajo el Acta de IA de la UE. Esto incluye preguntas clave como: ¿Qué es un modelo de GPAI? ¿Qué entidades serán “proveedores”? ¿Y qué significa “colocación en el mercado”?

Adicionalmente, otros han sugerido que el retraso permitirá a la Oficina de IA de la UE evaluar el apoyo al Código de GPAI por parte de los grandes proveedores de IA. La clave del éxito de este Código dependerá en gran medida de si los proveedores de modelos de GPAI realmente se comprometen a adherirse a él.

Comentario

Este retraso no es del todo inesperado. Lograr que todos los interesados se alineen en la forma del Código de GPAI siempre fue un desafío, especialmente dado que se cubren áreas controvertidas como los derechos de autor. Con ambas partes teniendo visiones opuestas sobre algunos de los temas tratados, surge la pregunta de si esto requerirá, tal vez, una solución política. De hecho, los legisladores de la UE ya previeron esta posibilidad, dejando claro en el Acta de IA que si el Código de GPAI no se finaliza antes del 2 de agosto, o si la Oficina de IA no considera adecuado el borrador final tras la evaluación, la Comisión de la UE podría proporcionar «reglas comunes» a través de un acto de implementación.

Es importante recordar que las áreas cubiertas en el Código de GPAI no son las únicas barreras que enfrentan los grandes desarrolladores de modelos de IA que desean lanzar productos de IA en la UE. También se enfrentan a desafíos de los reguladores de datos europeos en relación con preguntas sobre el GDPR y el uso de datos personales para el entrenamiento de modelos. Recientemente, la Comisión de Protección de Datos de Irlanda ha anunciado una investigación sobre cómo se utilizan las publicaciones accesibles públicamente de usuarios de la UE en la plataforma X para entrenar los modelos de lenguaje de X, centrándose particularmente en el procesamiento de datos personales en esas publicaciones y la legalidad y transparencia de dicho procesamiento.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...