La Aplicación del Acta de IA de la UE a Sistemas de IA Antiguos

¿Aplica la Ley de IA de la UE a los Sistemas de IA “Antiguos”?

La cuestión central que se plantea es: ¿qué sucede con los sistemas de IA que fueron construidos y desplegados antes de que la Ley de IA entre en vigor? ¿Se aplican las nuevas reglas de forma retroactiva?

La respuesta corta es: Generalmente no, pero con excepciones importantes y obligaciones transitorias.

El Principio de No Retroactividad

La Ley de IA no es retroactiva. Esto significa que:

  • Los sistemas de IA puestos en el mercado o en servicio antes del 2 de agosto de 2025 están en gran medida exentos de las nuevas obligaciones de la Ley.
  • No obstante, esta exención no se aplica a ciertas prácticas de IA prohibidas bajo el Artículo 5 de la Ley.

Prácticas Prohibidas Clave que Afectan a Todos los Sistemas de IA

Independientemente de cuándo se desplegó el sistema de IA, se prohíben los siguientes usos, que deben ser eliminados:

  • Puntuación social por parte de gobiernos
  • Identificación biométrica en tiempo real en espacios públicos (con excepciones limitadas)
  • Manipulación explotadora de grupos vulnerables
  • IA de patrones oscuros diseñada para distorsionar materialmente el comportamiento del usuario

Cualquier IA heredada que caiga bajo estas categorías debe ser remediada o descontinuada de inmediato.

Fechas de Transición Importantes y Disparadores de Cumplimiento

1. Modificación Sustancial

Si un sistema de IA puesto en el mercado antes del 2 de agosto de 2025 es modificado sustancialmente después del 2 de agosto de 2026, se considera un nuevo sistema y debe cumplir plenamente con la Ley de IA.

  • La modificación sustancial se refiere a cambios significativos en el diseño, funcionalidad o propósito previsto.
  • La parte que realiza la modificación podría ser considerada un cuasi-proveedor y así asumir obligaciones legales.

2. Reglas Especiales para Modelos de IA de Uso General (GPAI)

Para modelos de fundación como GPT, LLaMA y sistemas similares:

  • Los modelos ya en el mercado antes del 2 de agosto de 2025 deben cumplir con ciertas obligaciones de transparencia, gestión de riesgos y derechos de autor a partir del 2 de agosto de 2027.
  • Este período de transición permite auditorías, actualizaciones de políticas e implementación de salvaguardias contra riesgos sistémicos.

3. Sistemas de IA de Alto Riesgo en el Sector Público

Las autoridades públicas que utilizan sistemas de IA de alto riesgo desplegados antes del 2 de agosto de 2025 tienen hasta el 2 de agosto de 2030 para asegurar el cumplimiento completo.

  • La Ley de IA reconoce la complejidad y los ciclos presupuestarios de las administraciones públicas.
  • Los proveedores y desplegadores en este ámbito deben adaptar, reemplazar o desmantelar la IA antigua para cumplir con los requisitos antes de esta fecha límite.

4. Consideración Especial: Sistemas de Información Europeos a Gran Escala

Los sistemas de IA heredados utilizados en infraestructuras públicas críticas de la UE (bajo el Anexo X, por ejemplo, el Sistema de Información de Schengen, Eurodac):

  • Están exentos solo temporalmente si se desplegaron antes del 2 de agosto de 2027.
  • Cualquier modificación sustancial activa el cumplimiento de inmediato.
  • Nuevos despliegues después de esta fecha deben cumplir plenamente desde el inicio.

Resumen: Aplicabilidad de la Ley de IA a la IA Heredada

A pesar de que la Ley de IA generalmente exime a los sistemas de IA heredados de la mayoría de las nuevas obligaciones, la no conformidad, especialmente en relación con prácticas prohibidas o IA de alto riesgo, puede conllevar multas sustanciales bajo el Artículo 99.

Estas sanciones pueden alcanzar hasta 35 millones de euros o el 7% de la facturación anual global.

Es importante destacar que la Ley de IA no pretende obstaculizar el progreso tecnológico. En cambio, refleja el compromiso de la UE de encontrar un equilibrio entre la innovación y la protección de los derechos fundamentales y la infraestructura crítica.

La gobernanza efectiva de la IA comienza con una preparación proactiva. Las organizaciones deben primero identificar sus sistemas de IA más opacos o de alto impacto, aquellos donde convergen riesgos e incertidumbres, y priorizar estos. A partir de ahí, construir un enfoque estructurado y basado en riesgos para la gestión de IA se convierte no solo en una necesidad regulatoria, sino en una ventaja estratégica.

More Insights

Código de Práctica de IA de Uso General de la Comisión Europea

El 10 de julio de 2025, la Comisión Europea publicó la versión final del Código de Práctica para la IA de Propósito General, tres semanas antes de que entren en vigor las obligaciones relacionadas con...

Código de Práctica de la UE para la IA: Clave para el Cumplimiento

La Unión Europea ha publicado un nuevo código de prácticas voluntario para ayudar a las empresas a cumplir con su próxima Ley de IA. Este código se centra en áreas clave como las obligaciones de...

Responsabilidad en IA: Reformando la Adquisición Pública

En 2018, se reveló que el Departamento de Policía de Nueva Orleans estaba utilizando un software de policía predictiva de Palantir, lo que generó preocupaciones sobre el sesgo racial. Este caso...

Tokio Marine implementa un marco de gobernanza para la IA

Tokio Marine Holdings ha introducido un marco formal de gobernanza de IA para guiar cómo sus empresas del grupo global desarrollan y utilizan la inteligencia artificial. La política, anunciada el 16...

La Explosión de la IA Sombra: Urgente Necesidad de Gobernanza

La inteligencia artificial generativa (GenAI) ya está profundamente integrada en las empresas, aunque los gerentes no siempre se dan cuenta. Esto se conoce como Shadow AI: el uso no aprobado y no...

La Fragmentación y Captura en la Regulación de la IA

En una nueva investigación, Filippo Lancieri, Laura Edelson y Stefan Bechtold exploran cómo la economía política de la regulación de la inteligencia artificial está condicionada por el comportamiento...