La UE es un Pionero y la Ley de IA lo Demuestra
El 2 de agosto de 2025, entró en vigor la segunda etapa de la Ley de IA de la UE, que incluye obligaciones para los modelos de propósito general. Esta legislación, considerada la primera legislación integral sobre IA en el mundo, se implementa en fases graduales. A semejanza de lo que fue el GDPR para la privacidad de datos en la década de 2010, la Ley de IA se convertirá en el modelo global para la gobernanza de esta tecnología transformadora durante las próximas décadas.
La Ley de IA sigue un enfoque de gestión de riesgos, regulando la transparencia y la responsabilidad de los sistemas de IA y sus desarrolladores. Aunque se promulgó en 2024, la primera ola de su implementación se llevó a cabo en febrero de 2025, cubriendo riesgos «inaceptables», es decir, sistemas de IA que representan una amenaza clara para la seguridad de la sociedad. La segunda ola, implementada en agosto de 2025, se centra en los modelos de IA de propósito general (GPAI), siendo esta la más importante en términos de alcance.
Obligaciones para los Proveedores de GPAI
A partir del 2 de agosto de 2025, los proveedores de GPAI deben cumplir con obligaciones de transparencia y derechos de autor al colocar sus modelos en el mercado de la UE. Esto no solo aplica a empresas con sede en la UE, sino a cualquier organización con operaciones en la UE. Los modelos de GPAI ya en el mercado deben asegurar su cumplimiento antes del 2 de agosto de 2027. Para los fines de la ley, los modelos de GPAI incluyen aquellos entrenados con más de 10^23 operaciones de punto flotante (FLOP) y capaces de generar lenguaje (ya sea texto o audio), texto a imagen o texto a video.
Los proveedores de sistemas GPAI deben mantener documentación técnica sobre el modelo, incluyendo un resumen detallado de su corpus de entrenamiento. Además, deben implementar políticas para cumplir con la legislación de derechos de autor de la UE. Existe un grupo especial de modelos de GPAI considerados de riesgo sistémico, desarrollados solo por un pequeño número de proveedores, que enfrentan obligaciones adicionales, como notificar a la Comisión Europea cuando desarrollan un modelo con riesgo sistémico y tomar medidas para asegurar la seguridad del modelo.
Excepciones y Críticas a la Ley de IA
La ley contempla excepciones para la IA utilizada en seguridad nacional, militar y defensa, así como algunos sistemas de código abierto. La Comisión Europea ha publicado una plantilla para ayudar a los proveedores a resumir los datos utilizados para entrenar sus modelos, el Código de Práctica GPAI, desarrollado por expertos independientes como una herramienta voluntaria para demostrar el cumplimiento de la Ley de IA.
A pesar de su desarrollo colaborativo con miles de partes interesadas, la Ley de IA ha recibido críticas debido a su impacto desproporcionado en startups y PYMES. Algunos expertos argumentan que debería incluir excepciones para tecnologías que aún no tienen un impacto significativo en el público general. Además, se argumenta que podría ralentizar el progreso de las organizaciones europeas en el entrenamiento de modelos de IA, y que las normativas pueden resultar confusas.
En un periodo crítico de adopción, la Ley de IA establece prácticas de seguridad estándar en toda la UE, marcando un referente global que otros países, incluida EE. UU., no podrán ignorar en su camino hacia una IA responsable.