Cuando la Regulación se Convierte en Exceso

Cuando la Orientación se Convierte en Exceso

A partir del 2 de agosto de 2025, los proveedores de modelos de “Inteligencia Artificial de Propósito General” (GPAI) – como GPT, DALL-E, Gemini y Midjourney – enfrentan obligaciones significativas bajo la Ley de IA de la UE. La aparición de estos grandes modelos (multimodales de lenguaje) a finales de 2022 llevó a los legisladores europeos a incluir rápidamente regulaciones sobre GPAI en la Ley de IA.

Los proveedores de modelos GPAI deben proporcionar documentación técnica, implementar una política de derechos de autor, publicar un resumen del contenido de entrenamiento y, para modelos particularmente potentes que puedan representar riesgos sistémicos, llevar a cabo evaluaciones de riesgos y medidas de mitigación.

Para demostrar el cumplimiento, la Ley de IA permite a los proveedores confiar en un “Código de Práctica”, actualmente en redacción por más de 1000 partes interesadas bajo los auspicios de la Oficina de IA, y que se espera sea adoptado por la Comisión Europea antes de agosto de 2025.

Co-regulación como Estrategia Central de la Ley de IA

La Ley de IA se basa en el Nuevo Marco Legislativo (NLF), que depende de la co-regulación: un diálogo estructurado entre reguladores e industria para traducir obligaciones legales generales en normas técnicas. En lugar de especificar detalles técnicos en la legislación, la Ley de IA define requisitos esenciales y deja la tarea de concretización a las organizaciones de estandarización europeas CEN y CENELEC a través de su comité conjunto, JTC21.

Las normas armonizadas proporcionan certeza legal: una vez adoptadas por la Comisión, el cumplimiento de estas normas crea una presunción de conformidad con la Ley de IA. Aunque las empresas pueden, en teoría, desarrollar sus propias soluciones técnicas, las dificultades administrativas y los costos adicionales suelen llevarlas a seguir las normas.

El Código de Práctica como Parte de la Ley de la UE

Aunque se prevén normas armonizadas para modelos GPAI, los esfuerzos de estandarización en este dominio están aún en una etapa temprana. Para cerrar esta brecha, la Ley de IA introduce un instrumento provisional: el Código de Práctica. Una vez adoptado por la Comisión Europea a través de un acto de ejecución, el cumplimiento con el Código otorgará una presunción de conformidad bajo el Art. 53(4)(2) y Art. 55(2)(2) de la Ley de IA.

En teoría, los proveedores pueden optar por no depender del Código y demostrar el cumplimiento por medios alternativos. Sin embargo, en la práctica, el Código probablemente dará forma a la interpretación y aplicación de las obligaciones de GPAI por parte de la Comisión.

Un Proceso No Regulamentado con 1,000 Partes Interesadas

Mientras que el desarrollo de normas armonizadas está gobernado por el Reglamento 1025/2012, la redacción del Código de Práctica se basa únicamente en el Artículo 56 de la Ley de IA, que autoriza vagamente a la Oficina de IA a invitar a partes interesadas.

El resultado es un proceso sin reglas estructuradas, sin transparencia y sin salvaguardias democráticas. Inicialmente, la Oficina de IA planeó redactar el Código a puerta cerrada. En respuesta a las críticas, cambió a un extremo opuesto, lanzando una consulta con casi 1,000 partes interesadas — coordinadas por 10 expertos, incluidos algunos no europeos.

Con un cronograma extremadamente comprimido y un número ingente de participantes, el proceso ha dejado poco espacio para una deliberación reflexiva o una aportación equilibrada. Más preocupante es que académicos — muchos sin experiencia legal o en estandarización técnica — están liderando el esfuerzo de redacción.

El Código de Práctica como Caballo de Troya para Reconfigurar la Ley de IA

El contenido del borrador es igualmente preocupante. Aunque su propósito es ayudar a los proveedores a cumplir con las obligaciones existentes, el borrador actual va más allá de la mera clarificación – introduciendo nuevos requisitos no previstos en la Ley de IA.

Un ejemplo es el papel propuesto de “evaluadores externos” antes de lanzar modelos GPAI con riesgos sistémicos, un requisito no previsto en la Ley de IA. El borrador obliga a los proveedores a obtener evaluaciones externas de riesgos sistémicos antes de comercializar sus modelos, aunque la Ley de IA solo menciona pruebas adversarias de evaluaciones de modelos.

Otro ejemplo se refiere a los derechos de autor: el requisito de que los desarrolladores de modelos GPAI realicen esfuerzos razonables para determinar si el contenido protegido fue recolectado por un rastreador compatible con robots.txt – una obligación no impuesta por la Ley de IA.

Próximos Pasos: ¿Adoptar o No Adoptar el Borrador del Código de Práctica?

¿Qué sucederá a continuación? El Código de Práctica solo entrará en vigor si es aprobado por la Comisión a través de un acto de ejecución bajo el Art. 56(6) de la Ley de IA. A diferencia de los actos delegados, los actos de ejecución no facultan a la Comisión para enmendar o complementar la legislación básica, es decir, la Ley de IA.

Por lo tanto, la Comisión y la Junta de IA no deben simplemente aprobar el borrador actual sin más. En cambio, ambas deben realizar una revisión crítica y exhaustiva para asegurarse de que las medidas propuestas sean necesarias y no contradigan o excedan las disposiciones de la Ley de IA.

Cualquier cosa menos socavaría no solo el compromiso político cuidadosamente negociado entre el Parlamento y el Consejo en la Ley de IA, sino que también conduciría a un exceso inconstitucional de los poderes de implementación de la Comisión.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...