La UE: Pionera en la Regulación de la IA

La UE es un Pionero y la Ley de IA lo Demuestra

El 2 de agosto de 2025, entró en vigor la segunda etapa de la Ley de IA de la UE, que incluye obligaciones para los modelos de propósito general. Esta legislación, considerada la primera legislación integral sobre IA en el mundo, se implementa en fases graduales. A semejanza de lo que fue el GDPR para la privacidad de datos en la década de 2010, la Ley de IA se convertirá en el modelo global para la gobernanza de esta tecnología transformadora durante las próximas décadas.

La Ley de IA sigue un enfoque de gestión de riesgos, regulando la transparencia y la responsabilidad de los sistemas de IA y sus desarrolladores. Aunque se promulgó en 2024, la primera ola de su implementación se llevó a cabo en febrero de 2025, cubriendo riesgos «inaceptables», es decir, sistemas de IA que representan una amenaza clara para la seguridad de la sociedad. La segunda ola, implementada en agosto de 2025, se centra en los modelos de IA de propósito general (GPAI), siendo esta la más importante en términos de alcance.

Obligaciones para los Proveedores de GPAI

A partir del 2 de agosto de 2025, los proveedores de GPAI deben cumplir con obligaciones de transparencia y derechos de autor al colocar sus modelos en el mercado de la UE. Esto no solo aplica a empresas con sede en la UE, sino a cualquier organización con operaciones en la UE. Los modelos de GPAI ya en el mercado deben asegurar su cumplimiento antes del 2 de agosto de 2027. Para los fines de la ley, los modelos de GPAI incluyen aquellos entrenados con más de 10^23 operaciones de punto flotante (FLOP) y capaces de generar lenguaje (ya sea texto o audio), texto a imagen o texto a video.

Los proveedores de sistemas GPAI deben mantener documentación técnica sobre el modelo, incluyendo un resumen detallado de su corpus de entrenamiento. Además, deben implementar políticas para cumplir con la legislación de derechos de autor de la UE. Existe un grupo especial de modelos de GPAI considerados de riesgo sistémico, desarrollados solo por un pequeño número de proveedores, que enfrentan obligaciones adicionales, como notificar a la Comisión Europea cuando desarrollan un modelo con riesgo sistémico y tomar medidas para asegurar la seguridad del modelo.

Excepciones y Críticas a la Ley de IA

La ley contempla excepciones para la IA utilizada en seguridad nacional, militar y defensa, así como algunos sistemas de código abierto. La Comisión Europea ha publicado una plantilla para ayudar a los proveedores a resumir los datos utilizados para entrenar sus modelos, el Código de Práctica GPAI, desarrollado por expertos independientes como una herramienta voluntaria para demostrar el cumplimiento de la Ley de IA.

A pesar de su desarrollo colaborativo con miles de partes interesadas, la Ley de IA ha recibido críticas debido a su impacto desproporcionado en startups y PYMES. Algunos expertos argumentan que debería incluir excepciones para tecnologías que aún no tienen un impacto significativo en el público general. Además, se argumenta que podría ralentizar el progreso de las organizaciones europeas en el entrenamiento de modelos de IA, y que las normativas pueden resultar confusas.

En un periodo crítico de adopción, la Ley de IA establece prácticas de seguridad estándar en toda la UE, marcando un referente global que otros países, incluida EE. UU., no podrán ignorar en su camino hacia una IA responsable.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...