Acta de IA de la UE: Último borrador del Código para creadores de modelos de IA
Con una fecha límite en mayo para finalizar la orientación a los proveedores de modelos de IA de propósito general (GPAI) sobre cómo cumplir con las disposiciones de la UE AI Act, un tercer borrador del Código de Práctica fue publicado el martes. Este Código ha estado en desarrollo desde el año pasado y se espera que este borrador sea el último.
Un sitio web también ha sido lanzado con el objetivo de aumentar la accesibilidad del Código. Se debe enviar retroalimentación escrita sobre el último borrador antes del 30 de marzo de 2025.
Obligaciones y sanciones
El reglamento basado en riesgos de la UE para la IA incluye un subconjunto de obligaciones que se aplican solo a los creadores de modelos de IA más potentes —cubriendo áreas como la transparencia, el derecho de autor y la mitigación de riesgos. El Código está destinado a ayudar a los creadores de modelos GPAI a comprender cómo cumplir con las obligaciones legales y evitar el riesgo de sanciones por incumplimiento. Las penalizaciones de la Ley de IA por violaciones de los requisitos de GPAI podrían alcanzar hasta el 3% de los ingresos anuales globales.
Estructura simplificada
La última revisión del Código se presenta con «una estructura más streamlined y compromisos y medidas refinadas» en comparación con las iteraciones anteriores, basándose en la retroalimentación sobre el segundo borrador que se publicó en diciembre.
Más retroalimentación, discusiones de grupos de trabajo y talleres alimentarán el proceso de convertir el tercer borrador en orientación final. Los expertos esperan lograr una mayor claridad y coherencia en la versión final adoptada del Código.
El borrador se divide en varias secciones que cubren compromisos para GPAIs, junto con orientación detallada sobre medidas de transparencia y derecho de autor. También hay una sección sobre obligaciones de seguridad que se aplican a los modelos más potentes (con el llamado riesgo sistémico, o GPAISR).
Transparencia y derechos de autor
En cuanto a la transparencia, la orientación incluye un ejemplo de un formulario de documentación que los GPAIs podrían tener que llenar para asegurar que los desplegadores de su tecnología tengan acceso a información clave que les ayude en su propio cumplimiento.
En otro lugar, la sección de derecho de autor probablemente sigue siendo el área más contenciosa de inmediato para Big AI. El borrador actual está repleto de términos como “mejores esfuerzos”, “medidas razonables” y “medidas apropiadas” al cumplir compromisos, como respetar requisitos de derechos al rastrear la web para adquirir datos para el entrenamiento de modelos, o mitigar el riesgo de que los modelos generen salidas que infrinjan derechos de autor.
El uso de tal lenguaje mediado sugiere que los gigantes de la IA que hacen minería de datos pueden sentirse con bastante margen de maniobra para seguir capturando información protegida para entrenar sus modelos y “pedir perdón más tarde”, pero queda por ver si el lenguaje se endurece en el borrador final del Código.
Riesgos y medidas de seguridad
En cuanto a la seguridad y la seguridad, los requisitos de la Ley de IA de la UE para evaluar y mitigar riesgos sistémicos ya solo se aplican a un subconjunto de los modelos más potentes (aquellos entrenados usando una potencia de cálculo total superior a 10^25 FLOPs) —pero este último borrador ve algunas medidas previamente recomendadas siendo aún más restringidas en respuesta a la retroalimentación.
Presión de EE. UU.
No se menciona en el comunicado de prensa de la UE sobre el último borrador las críticas contundentes a la legislación europea en general, y las reglas del bloque para la IA en particular, que provienen de la administración de EE. UU. liderada por el presidente Donald Trump.
En la cumbre de acción de IA de París el mes pasado, el vicepresidente de EE. UU. JD Vance desestimó la necesidad de regular para asegurar que la IA se aplique de manera segura: la administración de Trump se inclinaría en su lugar hacia “la oportunidad de la IA”. Y advirtió a Europa que la sobrerregulación podría matar la gallina de los huevos de oro.
Desde entonces, el bloque ha decidido descontinuar una iniciativa de seguridad de IA —poniendo el Directiva de Responsabilidad de IA en la lista de eliminación. Los legisladores de la UE también han anticipado un paquete “omnibus” de reformas simplificadoras a las reglas existentes que dicen que están destinadas a reducir la burocracia y facilitar los negocios, con un enfoque en áreas como la información sobre sostenibilidad.
Sin embargo, con la Ley de IA aún en proceso de implementación, claramente se está ejerciendo presión para diluir los requisitos.
Mientras se elabora este Código de GPAI por expertos independientes, la Comisión Europea —a través de la Oficina de IA que supervisa la aplicación y otras actividades relacionadas con la ley— está, en paralelo, produciendo alguna orientación aclaratoria que también dará forma a cómo se aplica la ley. Esto incluye definiciones para GPAIs y sus responsabilidades.
Por lo tanto, esté atento a más orientación, “en su debido momento”, de la Oficina de IA —que la Comisión dice que “aclarará … el alcance de las reglas”— ya que esto podría ofrecer un camino para que los legisladores que pierden la paciencia respondan al cabildeo de EE. UU. para desregular la IA.