Los países de la UE coordinan posiciones sobre las revisiones de la Ley de IA para abril de 2026
Los estados miembros de la UE tienen como objetivo finalizar sus posiciones sobre las enmiendas propuestas a la Ley de IA para abril de 2026. La regulación, que está en vigor desde agosto de 2024, está siendo revisada para abordar problemas de aplicación y desarrollos tecnológicos. La coordinación involucra a la Comisión, el Consejo y el Parlamento, centrándose en sistemas de alto riesgo y modelos de IA de propósito general.
Cronograma de implementación de la Ley de IA y despliegue por fases
La Ley de Inteligencia Artificial entró en vigor el 1 de agosto de 2024, con prohibiciones sobre prácticas como la puntuación social gubernamental que se aplican de inmediato. Los requisitos para sistemas de alto riesgo comenzarán en agosto de 2026, mientras que las obligaciones para la IA de propósito general comenzaron en agosto de 2025. Los códigos de práctica para modelos fundamentales completaron la consulta pública a finales de 2025.
Las autoridades nacionales son responsables de hacer cumplir las normas, con el apoyo de la Oficina Europea de IA. Los estados miembros presentan informes anuales sobre el progreso. La retroalimentación de las partes interesadas en 2025 identificó lagunas en las definiciones de alto riesgo y en los criterios de evaluación de modelos.
Propuestas clave de enmiendas bajo revisión de los estados miembros
Las discusiones se centran en refinar las listas de sistemas de alto riesgo en el Anexo III, que abarca la identificación biométrica y herramientas educativas. Las propuestas ajustan los umbrales para el riesgo sistémico en modelos de propósito general en función de parámetros de computación. Las actualizaciones de cumplimiento pueden armonizar las sanciones que alcanzan los 35 millones de euros o el 7% de la facturación.
Los grupos de trabajo del Consejo, bajo sucesivas presidencias, facilitan intercambios técnicos. Francia, Alemania y los Países Bajos aportan contribuciones importantes sobre el equilibrio entre innovación y seguridad. Los pilotos de los entornos de pruebas de 2025 informan cambios basados en evidencia.
Desafíos de consenso frente a la fecha límite de abril
Las posiciones varían sobre la expansión de prohibiciones y el ajuste de excepciones. Los estados miembros más pequeños buscan ayuda para la capacidad de aplicación. Las economías más grandes abogan por flexibilidad. Francia refuerza las salvaguardias biométricas; los países nórdicos amplían las exenciones para la investigación. El Consejo de Competitividad de marzo revisa el estado. El cronograma coincide con la evaluación de la Década Digital que tiene como objetivo el 75% de adopción pública de IA.
Implicaciones y riesgos
La privacidad en la aplicación se cruza con las normas de IA, ya que las autoridades de protección de datos examinan las prácticas de entrenamiento. La Ley de IA integra disposiciones de la Ley de Servicios Digitales y la Ley de Datos, con costos anuales de aplicación proyectados entre 4 y 10 mil millones de euros a nivel de la Unión.
Las reglas de la UE están moldeando marcos internacionales, con referencias en la legislación de Japón y Corea del Sur. Los proyectos de ley de Estados Unidos en 2026 consideran niveles de riesgo. Los compromisos del G7 de Hiroshima abordan los riesgos generativos.
Conclusión
El proceso de revisión de la Ley de IA es crucial para garantizar una regulación efectiva que equilibre la innovación y la seguridad. La coordinación entre los estados miembros es esencial para abordar los desafíos actuales y futuros en el ámbito de la inteligencia artificial.