El Acta de IA de la UE: Nuevas pautas para los creadores de modelos de IA

Acta de IA de la UE: Último borrador del Código para creadores de modelos de IA

Con una fecha límite en mayo para finalizar la orientación a los proveedores de modelos de IA de propósito general (GPAI) sobre cómo cumplir con las disposiciones de la UE AI Act, un tercer borrador del Código de Práctica fue publicado el martes. Este Código ha estado en desarrollo desde el año pasado y se espera que este borrador sea el último.

Un sitio web también ha sido lanzado con el objetivo de aumentar la accesibilidad del Código. Se debe enviar retroalimentación escrita sobre el último borrador antes del 30 de marzo de 2025.

Obligaciones y sanciones

El reglamento basado en riesgos de la UE para la IA incluye un subconjunto de obligaciones que se aplican solo a los creadores de modelos de IA más potentes —cubriendo áreas como la transparencia, el derecho de autor y la mitigación de riesgos. El Código está destinado a ayudar a los creadores de modelos GPAI a comprender cómo cumplir con las obligaciones legales y evitar el riesgo de sanciones por incumplimiento. Las penalizaciones de la Ley de IA por violaciones de los requisitos de GPAI podrían alcanzar hasta el 3% de los ingresos anuales globales.

Estructura simplificada

La última revisión del Código se presenta con «una estructura más streamlined y compromisos y medidas refinadas» en comparación con las iteraciones anteriores, basándose en la retroalimentación sobre el segundo borrador que se publicó en diciembre.

Más retroalimentación, discusiones de grupos de trabajo y talleres alimentarán el proceso de convertir el tercer borrador en orientación final. Los expertos esperan lograr una mayor claridad y coherencia en la versión final adoptada del Código.

El borrador se divide en varias secciones que cubren compromisos para GPAIs, junto con orientación detallada sobre medidas de transparencia y derecho de autor. También hay una sección sobre obligaciones de seguridad que se aplican a los modelos más potentes (con el llamado riesgo sistémico, o GPAISR).

Transparencia y derechos de autor

En cuanto a la transparencia, la orientación incluye un ejemplo de un formulario de documentación que los GPAIs podrían tener que llenar para asegurar que los desplegadores de su tecnología tengan acceso a información clave que les ayude en su propio cumplimiento.

En otro lugar, la sección de derecho de autor probablemente sigue siendo el área más contenciosa de inmediato para Big AI. El borrador actual está repleto de términos como “mejores esfuerzos”, “medidas razonables” y “medidas apropiadas” al cumplir compromisos, como respetar requisitos de derechos al rastrear la web para adquirir datos para el entrenamiento de modelos, o mitigar el riesgo de que los modelos generen salidas que infrinjan derechos de autor.

El uso de tal lenguaje mediado sugiere que los gigantes de la IA que hacen minería de datos pueden sentirse con bastante margen de maniobra para seguir capturando información protegida para entrenar sus modelos y “pedir perdón más tarde”, pero queda por ver si el lenguaje se endurece en el borrador final del Código.

Riesgos y medidas de seguridad

En cuanto a la seguridad y la seguridad, los requisitos de la Ley de IA de la UE para evaluar y mitigar riesgos sistémicos ya solo se aplican a un subconjunto de los modelos más potentes (aquellos entrenados usando una potencia de cálculo total superior a 10^25 FLOPs) —pero este último borrador ve algunas medidas previamente recomendadas siendo aún más restringidas en respuesta a la retroalimentación.

Presión de EE. UU.

No se menciona en el comunicado de prensa de la UE sobre el último borrador las críticas contundentes a la legislación europea en general, y las reglas del bloque para la IA en particular, que provienen de la administración de EE. UU. liderada por el presidente Donald Trump.

En la cumbre de acción de IA de París el mes pasado, el vicepresidente de EE. UU. JD Vance desestimó la necesidad de regular para asegurar que la IA se aplique de manera segura: la administración de Trump se inclinaría en su lugar hacia “la oportunidad de la IA”. Y advirtió a Europa que la sobrerregulación podría matar la gallina de los huevos de oro.

Desde entonces, el bloque ha decidido descontinuar una iniciativa de seguridad de IA —poniendo el Directiva de Responsabilidad de IA en la lista de eliminación. Los legisladores de la UE también han anticipado un paquete “omnibus” de reformas simplificadoras a las reglas existentes que dicen que están destinadas a reducir la burocracia y facilitar los negocios, con un enfoque en áreas como la información sobre sostenibilidad.

Sin embargo, con la Ley de IA aún en proceso de implementación, claramente se está ejerciendo presión para diluir los requisitos.

Mientras se elabora este Código de GPAI por expertos independientes, la Comisión Europea —a través de la Oficina de IA que supervisa la aplicación y otras actividades relacionadas con la ley— está, en paralelo, produciendo alguna orientación aclaratoria que también dará forma a cómo se aplica la ley. Esto incluye definiciones para GPAIs y sus responsabilidades.

Por lo tanto, esté atento a más orientación, “en su debido momento”, de la Oficina de IA —que la Comisión dice que “aclarará … el alcance de las reglas”— ya que esto podría ofrecer un camino para que los legisladores que pierden la paciencia respondan al cabildeo de EE. UU. para desregular la IA.

More Insights

Transformación de la Gobernanza de IA para Directores de Riesgo

La inteligencia artificial y las tecnologías de IA son fundamentales para el éxito de la función de riesgo. Los directores de riesgo pueden implementar IA para abordar el cumplimiento y gestionar...

Inteligencia Artificial y Ciberseguridad: Desafíos de Responsabilidad

A medida que las organizaciones adoptan la inteligencia artificial (IA) para impulsar la innovación y transformar las operaciones, deben enfrentar una nueva realidad: la IA está remodelando...

Enfoque Inteligente para la Gobernanza de la IA en Tailandia

El Sr. Sak menciona que la próxima legislación tiene como objetivo proteger a los usuarios de los posibles riesgos de la IA y eliminar las barreras legales que las leyes existentes no pueden abordar...

Texas Establece Leyes de Gobernanza de IA con Enfoque en Salud

Texas ha dado un paso significativo en la regulación de la inteligencia artificial (IA) con la aprobación de los proyectos de ley HB 149 y SB 1188, que establecen un marco amplio para el uso...

Gillian K. Hadfield: Nueva Líder en Gobernanza de IA

Gillian K. Hadfield ha sido nombrada Profesora Distinguida Bloomberg de Alineación y Gobernanza de la IA en la Universidad Johns Hopkins. Su investigación se centra en asegurar que los sistemas de...