El Acta de IA de la UE: Nuevas pautas para los creadores de modelos de IA

Acta de IA de la UE: Último borrador del Código para creadores de modelos de IA

Con una fecha límite en mayo para finalizar la orientación a los proveedores de modelos de IA de propósito general (GPAI) sobre cómo cumplir con las disposiciones de la UE AI Act, un tercer borrador del Código de Práctica fue publicado el martes. Este Código ha estado en desarrollo desde el año pasado y se espera que este borrador sea el último.

Un sitio web también ha sido lanzado con el objetivo de aumentar la accesibilidad del Código. Se debe enviar retroalimentación escrita sobre el último borrador antes del 30 de marzo de 2025.

Obligaciones y sanciones

El reglamento basado en riesgos de la UE para la IA incluye un subconjunto de obligaciones que se aplican solo a los creadores de modelos de IA más potentes —cubriendo áreas como la transparencia, el derecho de autor y la mitigación de riesgos. El Código está destinado a ayudar a los creadores de modelos GPAI a comprender cómo cumplir con las obligaciones legales y evitar el riesgo de sanciones por incumplimiento. Las penalizaciones de la Ley de IA por violaciones de los requisitos de GPAI podrían alcanzar hasta el 3% de los ingresos anuales globales.

Estructura simplificada

La última revisión del Código se presenta con «una estructura más streamlined y compromisos y medidas refinadas» en comparación con las iteraciones anteriores, basándose en la retroalimentación sobre el segundo borrador que se publicó en diciembre.

Más retroalimentación, discusiones de grupos de trabajo y talleres alimentarán el proceso de convertir el tercer borrador en orientación final. Los expertos esperan lograr una mayor claridad y coherencia en la versión final adoptada del Código.

El borrador se divide en varias secciones que cubren compromisos para GPAIs, junto con orientación detallada sobre medidas de transparencia y derecho de autor. También hay una sección sobre obligaciones de seguridad que se aplican a los modelos más potentes (con el llamado riesgo sistémico, o GPAISR).

Transparencia y derechos de autor

En cuanto a la transparencia, la orientación incluye un ejemplo de un formulario de documentación que los GPAIs podrían tener que llenar para asegurar que los desplegadores de su tecnología tengan acceso a información clave que les ayude en su propio cumplimiento.

En otro lugar, la sección de derecho de autor probablemente sigue siendo el área más contenciosa de inmediato para Big AI. El borrador actual está repleto de términos como “mejores esfuerzos”, “medidas razonables” y “medidas apropiadas” al cumplir compromisos, como respetar requisitos de derechos al rastrear la web para adquirir datos para el entrenamiento de modelos, o mitigar el riesgo de que los modelos generen salidas que infrinjan derechos de autor.

El uso de tal lenguaje mediado sugiere que los gigantes de la IA que hacen minería de datos pueden sentirse con bastante margen de maniobra para seguir capturando información protegida para entrenar sus modelos y “pedir perdón más tarde”, pero queda por ver si el lenguaje se endurece en el borrador final del Código.

Riesgos y medidas de seguridad

En cuanto a la seguridad y la seguridad, los requisitos de la Ley de IA de la UE para evaluar y mitigar riesgos sistémicos ya solo se aplican a un subconjunto de los modelos más potentes (aquellos entrenados usando una potencia de cálculo total superior a 10^25 FLOPs) —pero este último borrador ve algunas medidas previamente recomendadas siendo aún más restringidas en respuesta a la retroalimentación.

Presión de EE. UU.

No se menciona en el comunicado de prensa de la UE sobre el último borrador las críticas contundentes a la legislación europea en general, y las reglas del bloque para la IA en particular, que provienen de la administración de EE. UU. liderada por el presidente Donald Trump.

En la cumbre de acción de IA de París el mes pasado, el vicepresidente de EE. UU. JD Vance desestimó la necesidad de regular para asegurar que la IA se aplique de manera segura: la administración de Trump se inclinaría en su lugar hacia “la oportunidad de la IA”. Y advirtió a Europa que la sobrerregulación podría matar la gallina de los huevos de oro.

Desde entonces, el bloque ha decidido descontinuar una iniciativa de seguridad de IA —poniendo el Directiva de Responsabilidad de IA en la lista de eliminación. Los legisladores de la UE también han anticipado un paquete “omnibus” de reformas simplificadoras a las reglas existentes que dicen que están destinadas a reducir la burocracia y facilitar los negocios, con un enfoque en áreas como la información sobre sostenibilidad.

Sin embargo, con la Ley de IA aún en proceso de implementación, claramente se está ejerciendo presión para diluir los requisitos.

Mientras se elabora este Código de GPAI por expertos independientes, la Comisión Europea —a través de la Oficina de IA que supervisa la aplicación y otras actividades relacionadas con la ley— está, en paralelo, produciendo alguna orientación aclaratoria que también dará forma a cómo se aplica la ley. Esto incluye definiciones para GPAIs y sus responsabilidades.

Por lo tanto, esté atento a más orientación, “en su debido momento”, de la Oficina de IA —que la Comisión dice que “aclarará … el alcance de las reglas”— ya que esto podría ofrecer un camino para que los legisladores que pierden la paciencia respondan al cabildeo de EE. UU. para desregular la IA.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...