La falsa confianza en el Acta de IA de la UE: Brechas epistemológicas y trampas burocráticas

A False Confidence in the EU AI Act: Epistemic Gaps and Bureaucratic Traps

El 10 de julio de 2025, la Comisión Europea publicó el borrador final del Código de Práctica para la Inteligencia Artificial de Propósito General (GPAI), un “código diseñado para ayudar a la industria a cumplir con las normas de la Ley de IA”. Este código ha estado en desarrollo desde octubre de 2024, cuando comenzó el proceso de redacción iterativa tras una plenaria inaugural en septiembre de 2024. La Comisión había planeado lanzar el borrador final para el 2 de mayo de 2025, pero el retraso ha suscitado especulaciones sobre el lobby industrial y tensiones ideológicas más profundas entre los defensores de la innovación y la regulación.

Sin embargo, más allá de estas narrativas, surge un problema más fundamental: una desconexión epistémica y conceptual en el núcleo de la Ley de Inteligencia Artificial de la UE, particularmente en su enfoque hacia la IA de propósito general (GPAI). La versión actual del código incluye tres capítulos que abordan “Transparencia”, “Derechos de Autor” y “Seguridad y Protección”, pero no aborda estos problemas centrales.

La invención legal de la IA de propósito general

Según el Art. 3(63) de la Ley de IA de la UE, un “modelo de IA de propósito general” es:

“un modelo de IA, que incluye cuando dicho modelo se entrena con una gran cantidad de datos utilizando la auto-supervisión a gran escala, que muestra una generalidad significativa y es capaz de realizar competentemente una amplia gama de tareas distintas independientemente de la forma en que el modelo se comercializa y que puede integrarse en una variedad de sistemas o aplicaciones posteriores, excepto los modelos de IA que se utilizan para actividades de investigación, desarrollo o prototipado antes de ser comercializados”.

Lo que la Ley se refiere aquí se alinea con lo que la comunidad de investigación en IA denomina un modelo fundamental. Estos modelos actúan como bases que pueden ser ajustadas o adaptadas para casos de uso particulares. Sin embargo, el término “IA de propósito general” no surgió de la comunidad de investigación en IA; es una construcción legal introducida por la Ley de IA de la UE para definir retroactivamente ciertos tipos de sistemas de IA.

Esto implica que la Ley no solo asignó un significado regulatorio al término, sino que también creó una nueva categoría que corre el riesgo de distorsionar cómo se entienden y desarrollan estos sistemas en la práctica. La terminología utilizada refleja una cierta confianza epistémica, sugiriendo que los sistemas de IA pueden clasificarse, analizarse y entenderse fácilmente. Sin embargo, esta categorización rígida puede no haber sido epistemológicamente coherente desde un principio.

Los límites de un marco basado en riesgos

La Ley de IA de la UE adopta un enfoque regulatorio basado en riesgos. El Artículo 3(2) define el riesgo como “la combinación de la probabilidad de que ocurra un daño y la gravedad de ese daño”. Sin embargo, los modelos fundamentales complican este marco, ya que sus características son difíciles de cuantificar y los daños no siempre son predecibles.

La tensión legal y epistémica es evidente. La ley requiere un nivel de certeza, pero la naturaleza de la IA desafía esa misma necesidad. Esta dicotomía genera una desconexión epistémica entre las suposiciones en los instrumentos legales y las realidades de las tecnologías que buscan regular.

La trampa burocrática de la certeza legal

El análisis de la burocracia de Max Weber ayuda a explicar por qué esta desconexión era de esperar. Weber describió la burocracia como una “jaula de hierro” de racionalización que depende de reglas formales y claridad categórica. Las definiciones precisas de la Ley de IA, como las de “proveedor” y “modelo de IA de propósito general”, reflejan esta lógica burocrática.

Sin embargo, este tipo de racionalidad puede llevar a patrones de pensamiento rígidos y formalizados que obstaculizan la gobernanza adaptativa. La necesidad burocrática de reglas claras puede crear una brecha epistémica entre la ley misma y el estado del arte en el área que busca regular.

La necesidad de una gobernanza anticipatoria

Los marcos de gobernanza anticipatoria pueden funcionar combinando previsión, experimentación y regulación adaptativa para prepararse para múltiples futuros posibles. En este contexto, el retraso en la publicación del Código de Práctica GPAI debería haber sido visto como una oportunidad para considerar un marco más adecuado para gobernar las tecnologías emergentes, uno que acepte la incertidumbre como norma y permita una supervisión adaptativa.

En conclusión, la Ley de IA de la UE y el Código de Práctica GPAI, al no desarrollarse dentro de un marco de gobernanza anticipatoria, corren el riesgo de legislar paradigmas anticuados en un mundo en constante evolución. La flexibilidad y la revisión iterativa deben integrarse en los procesos de gobernanza para abordar la naturaleza transformadora de la IA.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...