¿Aplica la Ley de IA de la UE a los Sistemas de IA “Antiguos”?
La cuestión central que se plantea es: ¿qué sucede con los sistemas de IA que fueron construidos y desplegados antes de que la Ley de IA entre en vigor? ¿Se aplican las nuevas reglas de forma retroactiva?
La respuesta corta es: Generalmente no, pero con excepciones importantes y obligaciones transitorias.
El Principio de No Retroactividad
La Ley de IA no es retroactiva. Esto significa que:
- Los sistemas de IA puestos en el mercado o en servicio antes del 2 de agosto de 2025 están en gran medida exentos de las nuevas obligaciones de la Ley.
- No obstante, esta exención no se aplica a ciertas prácticas de IA prohibidas bajo el Artículo 5 de la Ley.
Prácticas Prohibidas Clave que Afectan a Todos los Sistemas de IA
Independientemente de cuándo se desplegó el sistema de IA, se prohíben los siguientes usos, que deben ser eliminados:
- Puntuación social por parte de gobiernos
- Identificación biométrica en tiempo real en espacios públicos (con excepciones limitadas)
- Manipulación explotadora de grupos vulnerables
- IA de patrones oscuros diseñada para distorsionar materialmente el comportamiento del usuario
Cualquier IA heredada que caiga bajo estas categorías debe ser remediada o descontinuada de inmediato.
Fechas de Transición Importantes y Disparadores de Cumplimiento
1. Modificación Sustancial
Si un sistema de IA puesto en el mercado antes del 2 de agosto de 2025 es modificado sustancialmente después del 2 de agosto de 2026, se considera un nuevo sistema y debe cumplir plenamente con la Ley de IA.
- La modificación sustancial se refiere a cambios significativos en el diseño, funcionalidad o propósito previsto.
- La parte que realiza la modificación podría ser considerada un cuasi-proveedor y así asumir obligaciones legales.
2. Reglas Especiales para Modelos de IA de Uso General (GPAI)
Para modelos de fundación como GPT, LLaMA y sistemas similares:
- Los modelos ya en el mercado antes del 2 de agosto de 2025 deben cumplir con ciertas obligaciones de transparencia, gestión de riesgos y derechos de autor a partir del 2 de agosto de 2027.
- Este período de transición permite auditorías, actualizaciones de políticas e implementación de salvaguardias contra riesgos sistémicos.
3. Sistemas de IA de Alto Riesgo en el Sector Público
Las autoridades públicas que utilizan sistemas de IA de alto riesgo desplegados antes del 2 de agosto de 2025 tienen hasta el 2 de agosto de 2030 para asegurar el cumplimiento completo.
- La Ley de IA reconoce la complejidad y los ciclos presupuestarios de las administraciones públicas.
- Los proveedores y desplegadores en este ámbito deben adaptar, reemplazar o desmantelar la IA antigua para cumplir con los requisitos antes de esta fecha límite.
4. Consideración Especial: Sistemas de Información Europeos a Gran Escala
Los sistemas de IA heredados utilizados en infraestructuras públicas críticas de la UE (bajo el Anexo X, por ejemplo, el Sistema de Información de Schengen, Eurodac):
- Están exentos solo temporalmente si se desplegaron antes del 2 de agosto de 2027.
- Cualquier modificación sustancial activa el cumplimiento de inmediato.
- Nuevos despliegues después de esta fecha deben cumplir plenamente desde el inicio.
Resumen: Aplicabilidad de la Ley de IA a la IA Heredada
A pesar de que la Ley de IA generalmente exime a los sistemas de IA heredados de la mayoría de las nuevas obligaciones, la no conformidad, especialmente en relación con prácticas prohibidas o IA de alto riesgo, puede conllevar multas sustanciales bajo el Artículo 99.
Estas sanciones pueden alcanzar hasta 35 millones de euros o el 7% de la facturación anual global.
Es importante destacar que la Ley de IA no pretende obstaculizar el progreso tecnológico. En cambio, refleja el compromiso de la UE de encontrar un equilibrio entre la innovación y la protección de los derechos fundamentales y la infraestructura crítica.
La gobernanza efectiva de la IA comienza con una preparación proactiva. Las organizaciones deben primero identificar sus sistemas de IA más opacos o de alto impacto, aquellos donde convergen riesgos e incertidumbres, y priorizar estos. A partir de ahí, construir un enfoque estructurado y basado en riesgos para la gestión de IA se convierte no solo en una necesidad regulatoria, sino en una ventaja estratégica.