A False Confidence in the EU AI Act: Epistemic Gaps and Bureaucratic Traps
El 10 de julio de 2025, la Comisión Europea publicó el borrador final del Código de Práctica para la Inteligencia Artificial de Propósito General (GPAI), un “código diseñado para ayudar a la industria a cumplir con las normas de la Ley de IA”. Este código ha estado en desarrollo desde octubre de 2024, cuando comenzó el proceso de redacción iterativa tras una plenaria inaugural en septiembre de 2024. La Comisión había planeado lanzar el borrador final para el 2 de mayo de 2025, pero el retraso ha suscitado especulaciones sobre el lobby industrial y tensiones ideológicas más profundas entre los defensores de la innovación y la regulación.
Sin embargo, más allá de estas narrativas, surge un problema más fundamental: una desconexión epistémica y conceptual en el núcleo de la Ley de Inteligencia Artificial de la UE, particularmente en su enfoque hacia la IA de propósito general (GPAI). La versión actual del código incluye tres capítulos que abordan “Transparencia”, “Derechos de Autor” y “Seguridad y Protección”, pero no aborda estos problemas centrales.
La invención legal de la IA de propósito general
Según el Art. 3(63) de la Ley de IA de la UE, un “modelo de IA de propósito general” es:
“un modelo de IA, que incluye cuando dicho modelo se entrena con una gran cantidad de datos utilizando la auto-supervisión a gran escala, que muestra una generalidad significativa y es capaz de realizar competentemente una amplia gama de tareas distintas independientemente de la forma en que el modelo se comercializa y que puede integrarse en una variedad de sistemas o aplicaciones posteriores, excepto los modelos de IA que se utilizan para actividades de investigación, desarrollo o prototipado antes de ser comercializados”.
Lo que la Ley se refiere aquí se alinea con lo que la comunidad de investigación en IA denomina un modelo fundamental. Estos modelos actúan como bases que pueden ser ajustadas o adaptadas para casos de uso particulares. Sin embargo, el término “IA de propósito general” no surgió de la comunidad de investigación en IA; es una construcción legal introducida por la Ley de IA de la UE para definir retroactivamente ciertos tipos de sistemas de IA.
Esto implica que la Ley no solo asignó un significado regulatorio al término, sino que también creó una nueva categoría que corre el riesgo de distorsionar cómo se entienden y desarrollan estos sistemas en la práctica. La terminología utilizada refleja una cierta confianza epistémica, sugiriendo que los sistemas de IA pueden clasificarse, analizarse y entenderse fácilmente. Sin embargo, esta categorización rígida puede no haber sido epistemológicamente coherente desde un principio.
Los límites de un marco basado en riesgos
La Ley de IA de la UE adopta un enfoque regulatorio basado en riesgos. El Artículo 3(2) define el riesgo como “la combinación de la probabilidad de que ocurra un daño y la gravedad de ese daño”. Sin embargo, los modelos fundamentales complican este marco, ya que sus características son difíciles de cuantificar y los daños no siempre son predecibles.
La tensión legal y epistémica es evidente. La ley requiere un nivel de certeza, pero la naturaleza de la IA desafía esa misma necesidad. Esta dicotomía genera una desconexión epistémica entre las suposiciones en los instrumentos legales y las realidades de las tecnologías que buscan regular.
La trampa burocrática de la certeza legal
El análisis de la burocracia de Max Weber ayuda a explicar por qué esta desconexión era de esperar. Weber describió la burocracia como una “jaula de hierro” de racionalización que depende de reglas formales y claridad categórica. Las definiciones precisas de la Ley de IA, como las de “proveedor” y “modelo de IA de propósito general”, reflejan esta lógica burocrática.
Sin embargo, este tipo de racionalidad puede llevar a patrones de pensamiento rígidos y formalizados que obstaculizan la gobernanza adaptativa. La necesidad burocrática de reglas claras puede crear una brecha epistémica entre la ley misma y el estado del arte en el área que busca regular.
La necesidad de una gobernanza anticipatoria
Los marcos de gobernanza anticipatoria pueden funcionar combinando previsión, experimentación y regulación adaptativa para prepararse para múltiples futuros posibles. En este contexto, el retraso en la publicación del Código de Práctica GPAI debería haber sido visto como una oportunidad para considerar un marco más adecuado para gobernar las tecnologías emergentes, uno que acepte la incertidumbre como norma y permita una supervisión adaptativa.
En conclusión, la Ley de IA de la UE y el Código de Práctica GPAI, al no desarrollarse dentro de un marco de gobernanza anticipatoria, corren el riesgo de legislar paradigmas anticuados en un mundo en constante evolución. La flexibilidad y la revisión iterativa deben integrarse en los procesos de gobernanza para abordar la naturaleza transformadora de la IA.