Directrices de la UE sobre sistemas de IA carecen de claridad

Guías de definición de sistemas de IA: una evaluación crítica

Las guías publicadas por la Comisión Europea sobre la definición de un sistema de inteligencia artificial (IA) no logran proporcionar la claridad necesaria. Este artículo analiza las implicaciones de estas guías y los problemas que surgen a partir de su interpretación.

Definición de un sistema de IA

Según la regulación de la UE, el “Acta de IA” define un sistema de IA como:

“un sistema basado en máquinas diseñado para operar con diversos niveles de autonomía y que puede exhibir adaptabilidad después de su implementación, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas, como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.”

Problemas identificados

Se señalan tres problemas clave en la forma en que las guías interpretan esta definición:

1. La regresión logística está dentro del alcance de la definición

El párrafo 42 afirma que “los sistemas para mejorar la optimización matemática” están fuera de su alcance. En este contexto, se proporcionan ejemplos de métodos como la regresión lineal o logística. Sin embargo, fuera de este contexto, estos métodos estarían dentro del alcance de la ley.

Esto se hace evidente al leer el párrafo 45, que distingue entre “optimizar el funcionamiento de los sistemas” y “ajustes de sus modelos de toma de decisiones”. El segundo de estos permanece dentro del alcance del Acta de IA, que cubre aplicaciones en áreas de alto riesgo, como la evaluación de “la elegibilidad de las personas naturales para beneficios y servicios públicos esenciales”. El uso de la regresión logística en tales aplicaciones implicaría hacer “ajustes de sus modelos de toma de decisiones”.

2. Contradicción entre un considerando y las guías

Las guías intentan distinguir entre sistemas de IA y “sistemas de software tradicionales más simples”, pero contribuyen a la confusión. El considerando 12 del Acta de IA establece que “una característica clave de los sistemas de IA es su capacidad para inferir”, mientras que las guías contradicen esto al afirmar que “si bien esos modelos [métodos de optimización] tienen la capacidad de inferir, no trascienden el ‘procesamiento de datos básico’”.

3. Razonamiento extraño

El razonamiento presentado es bizarro: “una indicación de que un sistema no trasciende el procesamiento básico de datos podría ser que ha sido utilizado de manera consolidada durante muchos años.” La duración del uso de un sistema debería ser irrelevante aquí.

Este no es el único caso donde se utilizan explicaciones extrañas para colocar técnicas de IA fuera del alcance. Otra justificación es el rendimiento: “todos los sistemas basados en máquinas cuyo rendimiento se puede lograr a través de una regla de aprendizaje estadístico básico, aunque técnicamente puedan clasificarse como basados en enfoques de aprendizaje automático, caen fuera del alcance de la definición de sistema de IA, debido a su rendimiento.”

Conclusiones

Estas guías no logran proporcionar claridad y, en cambio, agregan a la confusión. Afortunadamente, estas pautas no son vinculantes legalmente. Se espera que los reguladores y los organismos responsables de los derechos fundamentales utilicen un razonamiento sólido al interpretar la definición de sistemas de IA.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...