Implementación de la Ley de IA de la UE: Nuevas obligaciones para los sistemas de IA de propósito general
La Ley de Inteligencia Artificial de la Unión Europea (AI Act) representa el primer marco legal integral para la inteligencia artificial (IA) en el mundo, con el objetivo de abordar los riesgos asociados con la IA y fomentar la innovación confiable en toda Europa. Establece reglas basadas en el riesgo para la IA y tiene consecuencias de gran alcance para las empresas que desarrollan, despliegan o utilizan IA en la UE, ya sean de la UE o no. Las disposiciones de la AI Act se aplican progresivamente a lo largo de varios años, alcanzando ahora un segundo plazo clave de implementación.
Etapa 1: Sistemas de IA prohibidos y capacitación del personal
Desde el 2 de febrero de 2025, ciertos sistemas de IA considerados de riesgo inaceptable han sido prohibidos para su comercialización, puesta en servicio o uso en la UE. Además, los proveedores y desplegadores de sistemas de IA deben tomar medidas para demostrar la alfabetización en IA de su personal.
Etapa 2: Modelos de IA de Propósito General (GPAI)
Desde el 2 de agosto de 2025, las obligaciones relacionadas con los modelos de IA de Propósito General (GPAI) son aplicables a los modelos de IA que se pongan en el mercado a partir de esa fecha. Los modelos GPAI que se hayan colocado en el mercado antes de esa fecha tienen un plazo de dos años, hasta el 2 de agosto de 2027, para cumplir con los requisitos de la AI Act.
Un modelo GPAI se refiere a modelos de IA entrenados con una gran cantidad de datos (que superan el umbral computacional de 10²³ operaciones de punto flotante por segundo – FLOPS) capaces de generar lenguaje (texto/audio), texto-imagen o texto-video, y mostrar una funcionalidad general significativa, es decir, ser capaces de realizar una amplia gama de tareas distintas que pueden integrarse en diversos sistemas o aplicaciones. La AI Act distingue entre modelos GPAI que presentan un riesgo sistémico y aquellos que no lo hacen.
Las organizaciones que despliegan o desarrollan modelos GPAI deben clasificar sus modelos y cumplir con obligaciones que van desde requisitos sobre documentación técnica o transparencia (incluyendo, por ejemplo, un resumen público obligatorio de los materiales de entrenamiento) hasta cooperación con las autoridades competentes para los modelos GPAI sin riesgo sistémico; así como cumplir con requisitos adicionales sobre notificación de incidentes, evaluación de modelos, evaluación y mitigación de riesgos sistémicos y ciberseguridad para los modelos GPAI con riesgos sistémicos.
Se creará una nueva Oficina de IA dentro de la Comisión Europea, que actuará como organismo supervisor para todos los GPAI.
El 18 de julio de 2025, la Comisión publicó y aprobó directrices preliminares que aclaran las disposiciones clave de la AI Act aplicables a los modelos GPAI. Estas directrices tienen como objetivo apoyar a las organizaciones en sus esfuerzos de cumplimiento al proporcionar información sobre la interpretación de la Comisión respecto a las disposiciones relacionadas con los sistemas GPAI.
Además, se ha publicado un Código de Práctica de IA de Propósito General, elaborado por varios expertos independientes, que confirma que este Código es una herramienta voluntaria adecuada para que los proveedores de modelos GPAI demuestren su cumplimiento con la AI Act. El Código de Práctica se centra en la transparencia, la propiedad intelectual, la seguridad y la protección de los modelos GPAI.
Etapa 3: Provisiones restantes
Las disposiciones restantes de la AI Act, excepto el Art. 6 (1), comenzarán a aplicarse a partir del 2 de agosto de 2026.
Recomendaciones estratégicas
A medida que las disposiciones más amplias de la AI Act se acercan a su fecha de aplicación del 2 de agosto de 2026, las organizaciones deben priorizar dos acciones preparatorias críticas: la mapeo integral de los sistemas de IA y la definición precisa de roles bajo el marco de la AI Act. La distinción entre proveedores, desplegadores, distribuidores e importadores de sistemas de IA tiene profundas implicaciones de cumplimiento, ya que cada rol desencadena obligaciones, exposiciones de responsabilidad y requisitos de gobernanza distintos.
Dada la alcance global y la complejidad técnica de la AI Act, se recomienda realizar evaluaciones completas de los sistemas para identificar cuáles sistemas caen bajo las categorías de IA de alto riesgo, modelos de IA de propósito general o sistemas de IA sujetos a ciertas obligaciones de transparencia y desarrollar marcos de cumplimiento personalizados de manera oportuna.
La preparación temprana en áreas como la documentación, la transparencia y el cumplimiento de derechos de autor es esencial para evitar riesgos de aplicación y interrupciones comerciales.