La Aplicación del Acta de IA de la UE a Sistemas de IA Antiguos

¿Aplica la Ley de IA de la UE a los Sistemas de IA “Antiguos”?

La cuestión central que se plantea es: ¿qué sucede con los sistemas de IA que fueron construidos y desplegados antes de que la Ley de IA entre en vigor? ¿Se aplican las nuevas reglas de forma retroactiva?

La respuesta corta es: Generalmente no, pero con excepciones importantes y obligaciones transitorias.

El Principio de No Retroactividad

La Ley de IA no es retroactiva. Esto significa que:

  • Los sistemas de IA puestos en el mercado o en servicio antes del 2 de agosto de 2025 están en gran medida exentos de las nuevas obligaciones de la Ley.
  • No obstante, esta exención no se aplica a ciertas prácticas de IA prohibidas bajo el Artículo 5 de la Ley.

Prácticas Prohibidas Clave que Afectan a Todos los Sistemas de IA

Independientemente de cuándo se desplegó el sistema de IA, se prohíben los siguientes usos, que deben ser eliminados:

  • Puntuación social por parte de gobiernos
  • Identificación biométrica en tiempo real en espacios públicos (con excepciones limitadas)
  • Manipulación explotadora de grupos vulnerables
  • IA de patrones oscuros diseñada para distorsionar materialmente el comportamiento del usuario

Cualquier IA heredada que caiga bajo estas categorías debe ser remediada o descontinuada de inmediato.

Fechas de Transición Importantes y Disparadores de Cumplimiento

1. Modificación Sustancial

Si un sistema de IA puesto en el mercado antes del 2 de agosto de 2025 es modificado sustancialmente después del 2 de agosto de 2026, se considera un nuevo sistema y debe cumplir plenamente con la Ley de IA.

  • La modificación sustancial se refiere a cambios significativos en el diseño, funcionalidad o propósito previsto.
  • La parte que realiza la modificación podría ser considerada un cuasi-proveedor y así asumir obligaciones legales.

2. Reglas Especiales para Modelos de IA de Uso General (GPAI)

Para modelos de fundación como GPT, LLaMA y sistemas similares:

  • Los modelos ya en el mercado antes del 2 de agosto de 2025 deben cumplir con ciertas obligaciones de transparencia, gestión de riesgos y derechos de autor a partir del 2 de agosto de 2027.
  • Este período de transición permite auditorías, actualizaciones de políticas e implementación de salvaguardias contra riesgos sistémicos.

3. Sistemas de IA de Alto Riesgo en el Sector Público

Las autoridades públicas que utilizan sistemas de IA de alto riesgo desplegados antes del 2 de agosto de 2025 tienen hasta el 2 de agosto de 2030 para asegurar el cumplimiento completo.

  • La Ley de IA reconoce la complejidad y los ciclos presupuestarios de las administraciones públicas.
  • Los proveedores y desplegadores en este ámbito deben adaptar, reemplazar o desmantelar la IA antigua para cumplir con los requisitos antes de esta fecha límite.

4. Consideración Especial: Sistemas de Información Europeos a Gran Escala

Los sistemas de IA heredados utilizados en infraestructuras públicas críticas de la UE (bajo el Anexo X, por ejemplo, el Sistema de Información de Schengen, Eurodac):

  • Están exentos solo temporalmente si se desplegaron antes del 2 de agosto de 2027.
  • Cualquier modificación sustancial activa el cumplimiento de inmediato.
  • Nuevos despliegues después de esta fecha deben cumplir plenamente desde el inicio.

Resumen: Aplicabilidad de la Ley de IA a la IA Heredada

A pesar de que la Ley de IA generalmente exime a los sistemas de IA heredados de la mayoría de las nuevas obligaciones, la no conformidad, especialmente en relación con prácticas prohibidas o IA de alto riesgo, puede conllevar multas sustanciales bajo el Artículo 99.

Estas sanciones pueden alcanzar hasta 35 millones de euros o el 7% de la facturación anual global.

Es importante destacar que la Ley de IA no pretende obstaculizar el progreso tecnológico. En cambio, refleja el compromiso de la UE de encontrar un equilibrio entre la innovación y la protección de los derechos fundamentales y la infraestructura crítica.

La gobernanza efectiva de la IA comienza con una preparación proactiva. Las organizaciones deben primero identificar sus sistemas de IA más opacos o de alto impacto, aquellos donde convergen riesgos e incertidumbres, y priorizar estos. A partir de ahí, construir un enfoque estructurado y basado en riesgos para la gestión de IA se convierte no solo en una necesidad regulatoria, sino en una ventaja estratégica.

More Insights

Moratoria en la Regulación de IA: Debate entre el GOP y el Futuro Tecnológico

La moratoria sobre la regulación estatal de la inteligencia artificial (IA) ha suscitado críticas y elogios dentro del Partido Republicano. Algunos legisladores, como la congresista Marjorie Taylor...

Ética y Gobernanza en la Era de la IA

A medida que la inteligencia artificial (IA) se integra en procesos de toma de decisiones críticos, es fundamental contar con marcos de gobernanza ética robustos. Las plataformas de gobernanza de IA...

Innovación Soberana: La IA y el Futuro de África

La inteligencia artificial no debe ser vista solo como una herramienta de automatización, sino como una fuerza que redefine el poder y la economía en África. Es crucial que el continente desarrolle un...

Dominio de la soberanía de datos y IA en la economía digital

La economía global está entrando en una fase de transformación sin precedentes impulsada por el rápido aumento de los datos y la inteligencia artificial. Según un informe, se prevé que la economía...

Leo XIV y la Ética en la Era de la IA

El papa Leo XIV ha emergido como un punto focal en las discusiones globales sobre la regulación de la inteligencia artificial (IA), presentando una visión ética robusta adecuada para esta era. Durante...

Los Estados y la Regulación de la IA: Un Poder Necesario

Los legisladores de EE. UU. están considerando una medida que prohibiría la regulación de la IA a nivel estatal durante 10 años, lo que podría sofocar la innovación en lugar de promoverla. Es...

Wild Tech y la Nueva Era de la Gobernanza de IA

Wild Tech ha lanzado una nueva plataforma destinada a ayudar a las organizaciones a reducir la proliferación de IA y mejorar la gobernanza de usuarios y datos. La solución, denominada "Agente de...

IBM Lanza Seguridad y Gobernanza de IA Unificada para Sistemas Agentes

IBM ha anunciado el primer software de la industria para unir los equipos de seguridad y gobernanza de inteligencia artificial, ofreciendo una visión unificada del estado de riesgo de las empresas...