Obligaciones del nuevo Acta de IA de la UE para sistemas de IA de propósito general

Implementación de la Ley de IA de la UE: Nuevas obligaciones para los sistemas de IA de propósito general

La Ley de Inteligencia Artificial de la Unión Europea (AI Act) representa el primer marco legal integral para la inteligencia artificial (IA) en el mundo, con el objetivo de abordar los riesgos asociados con la IA y fomentar la innovación confiable en toda Europa. Establece reglas basadas en el riesgo para la IA y tiene consecuencias de gran alcance para las empresas que desarrollan, despliegan o utilizan IA en la UE, ya sean de la UE o no. Las disposiciones de la AI Act se aplican progresivamente a lo largo de varios años, alcanzando ahora un segundo plazo clave de implementación.

Etapa 1: Sistemas de IA prohibidos y capacitación del personal

Desde el 2 de febrero de 2025, ciertos sistemas de IA considerados de riesgo inaceptable han sido prohibidos para su comercialización, puesta en servicio o uso en la UE. Además, los proveedores y desplegadores de sistemas de IA deben tomar medidas para demostrar la alfabetización en IA de su personal.

Etapa 2: Modelos de IA de Propósito General (GPAI)

Desde el 2 de agosto de 2025, las obligaciones relacionadas con los modelos de IA de Propósito General (GPAI) son aplicables a los modelos de IA que se pongan en el mercado a partir de esa fecha. Los modelos GPAI que se hayan colocado en el mercado antes de esa fecha tienen un plazo de dos años, hasta el 2 de agosto de 2027, para cumplir con los requisitos de la AI Act.

Un modelo GPAI se refiere a modelos de IA entrenados con una gran cantidad de datos (que superan el umbral computacional de 10²³ operaciones de punto flotante por segundo – FLOPS) capaces de generar lenguaje (texto/audio), texto-imagen o texto-video, y mostrar una funcionalidad general significativa, es decir, ser capaces de realizar una amplia gama de tareas distintas que pueden integrarse en diversos sistemas o aplicaciones. La AI Act distingue entre modelos GPAI que presentan un riesgo sistémico y aquellos que no lo hacen.

Las organizaciones que despliegan o desarrollan modelos GPAI deben clasificar sus modelos y cumplir con obligaciones que van desde requisitos sobre documentación técnica o transparencia (incluyendo, por ejemplo, un resumen público obligatorio de los materiales de entrenamiento) hasta cooperación con las autoridades competentes para los modelos GPAI sin riesgo sistémico; así como cumplir con requisitos adicionales sobre notificación de incidentes, evaluación de modelos, evaluación y mitigación de riesgos sistémicos y ciberseguridad para los modelos GPAI con riesgos sistémicos.

Se creará una nueva Oficina de IA dentro de la Comisión Europea, que actuará como organismo supervisor para todos los GPAI.

El 18 de julio de 2025, la Comisión publicó y aprobó directrices preliminares que aclaran las disposiciones clave de la AI Act aplicables a los modelos GPAI. Estas directrices tienen como objetivo apoyar a las organizaciones en sus esfuerzos de cumplimiento al proporcionar información sobre la interpretación de la Comisión respecto a las disposiciones relacionadas con los sistemas GPAI.

Además, se ha publicado un Código de Práctica de IA de Propósito General, elaborado por varios expertos independientes, que confirma que este Código es una herramienta voluntaria adecuada para que los proveedores de modelos GPAI demuestren su cumplimiento con la AI Act. El Código de Práctica se centra en la transparencia, la propiedad intelectual, la seguridad y la protección de los modelos GPAI.

Etapa 3: Provisiones restantes

Las disposiciones restantes de la AI Act, excepto el Art. 6 (1), comenzarán a aplicarse a partir del 2 de agosto de 2026.

Recomendaciones estratégicas

A medida que las disposiciones más amplias de la AI Act se acercan a su fecha de aplicación del 2 de agosto de 2026, las organizaciones deben priorizar dos acciones preparatorias críticas: la mapeo integral de los sistemas de IA y la definición precisa de roles bajo el marco de la AI Act. La distinción entre proveedores, desplegadores, distribuidores e importadores de sistemas de IA tiene profundas implicaciones de cumplimiento, ya que cada rol desencadena obligaciones, exposiciones de responsabilidad y requisitos de gobernanza distintos.

Dada la alcance global y la complejidad técnica de la AI Act, se recomienda realizar evaluaciones completas de los sistemas para identificar cuáles sistemas caen bajo las categorías de IA de alto riesgo, modelos de IA de propósito general o sistemas de IA sujetos a ciertas obligaciones de transparencia y desarrollar marcos de cumplimiento personalizados de manera oportuna.

La preparación temprana en áreas como la documentación, la transparencia y el cumplimiento de derechos de autor es esencial para evitar riesgos de aplicación y interrupciones comerciales.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...