La Aplicación del Acta de IA de la UE a Sistemas de IA Antiguos

¿Aplica la Ley de IA de la UE a los Sistemas de IA “Antiguos”?

La cuestión central que se plantea es: ¿qué sucede con los sistemas de IA que fueron construidos y desplegados antes de que la Ley de IA entre en vigor? ¿Se aplican las nuevas reglas de forma retroactiva?

La respuesta corta es: Generalmente no, pero con excepciones importantes y obligaciones transitorias.

El Principio de No Retroactividad

La Ley de IA no es retroactiva. Esto significa que:

  • Los sistemas de IA puestos en el mercado o en servicio antes del 2 de agosto de 2025 están en gran medida exentos de las nuevas obligaciones de la Ley.
  • No obstante, esta exención no se aplica a ciertas prácticas de IA prohibidas bajo el Artículo 5 de la Ley.

Prácticas Prohibidas Clave que Afectan a Todos los Sistemas de IA

Independientemente de cuándo se desplegó el sistema de IA, se prohíben los siguientes usos, que deben ser eliminados:

  • Puntuación social por parte de gobiernos
  • Identificación biométrica en tiempo real en espacios públicos (con excepciones limitadas)
  • Manipulación explotadora de grupos vulnerables
  • IA de patrones oscuros diseñada para distorsionar materialmente el comportamiento del usuario

Cualquier IA heredada que caiga bajo estas categorías debe ser remediada o descontinuada de inmediato.

Fechas de Transición Importantes y Disparadores de Cumplimiento

1. Modificación Sustancial

Si un sistema de IA puesto en el mercado antes del 2 de agosto de 2025 es modificado sustancialmente después del 2 de agosto de 2026, se considera un nuevo sistema y debe cumplir plenamente con la Ley de IA.

  • La modificación sustancial se refiere a cambios significativos en el diseño, funcionalidad o propósito previsto.
  • La parte que realiza la modificación podría ser considerada un cuasi-proveedor y así asumir obligaciones legales.

2. Reglas Especiales para Modelos de IA de Uso General (GPAI)

Para modelos de fundación como GPT, LLaMA y sistemas similares:

  • Los modelos ya en el mercado antes del 2 de agosto de 2025 deben cumplir con ciertas obligaciones de transparencia, gestión de riesgos y derechos de autor a partir del 2 de agosto de 2027.
  • Este período de transición permite auditorías, actualizaciones de políticas e implementación de salvaguardias contra riesgos sistémicos.

3. Sistemas de IA de Alto Riesgo en el Sector Público

Las autoridades públicas que utilizan sistemas de IA de alto riesgo desplegados antes del 2 de agosto de 2025 tienen hasta el 2 de agosto de 2030 para asegurar el cumplimiento completo.

  • La Ley de IA reconoce la complejidad y los ciclos presupuestarios de las administraciones públicas.
  • Los proveedores y desplegadores en este ámbito deben adaptar, reemplazar o desmantelar la IA antigua para cumplir con los requisitos antes de esta fecha límite.

4. Consideración Especial: Sistemas de Información Europeos a Gran Escala

Los sistemas de IA heredados utilizados en infraestructuras públicas críticas de la UE (bajo el Anexo X, por ejemplo, el Sistema de Información de Schengen, Eurodac):

  • Están exentos solo temporalmente si se desplegaron antes del 2 de agosto de 2027.
  • Cualquier modificación sustancial activa el cumplimiento de inmediato.
  • Nuevos despliegues después de esta fecha deben cumplir plenamente desde el inicio.

Resumen: Aplicabilidad de la Ley de IA a la IA Heredada

A pesar de que la Ley de IA generalmente exime a los sistemas de IA heredados de la mayoría de las nuevas obligaciones, la no conformidad, especialmente en relación con prácticas prohibidas o IA de alto riesgo, puede conllevar multas sustanciales bajo el Artículo 99.

Estas sanciones pueden alcanzar hasta 35 millones de euros o el 7% de la facturación anual global.

Es importante destacar que la Ley de IA no pretende obstaculizar el progreso tecnológico. En cambio, refleja el compromiso de la UE de encontrar un equilibrio entre la innovación y la protección de los derechos fundamentales y la infraestructura crítica.

La gobernanza efectiva de la IA comienza con una preparación proactiva. Las organizaciones deben primero identificar sus sistemas de IA más opacos o de alto impacto, aquellos donde convergen riesgos e incertidumbres, y priorizar estos. A partir de ahí, construir un enfoque estructurado y basado en riesgos para la gestión de IA se convierte no solo en una necesidad regulatoria, sino en una ventaja estratégica.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...