Directrices de la UE sobre sistemas de IA carecen de claridad

Guías de definición de sistemas de IA: una evaluación crítica

Las guías publicadas por la Comisión Europea sobre la definición de un sistema de inteligencia artificial (IA) no logran proporcionar la claridad necesaria. Este artículo analiza las implicaciones de estas guías y los problemas que surgen a partir de su interpretación.

Definición de un sistema de IA

Según la regulación de la UE, el “Acta de IA” define un sistema de IA como:

“un sistema basado en máquinas diseñado para operar con diversos niveles de autonomía y que puede exhibir adaptabilidad después de su implementación, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas, como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.”

Problemas identificados

Se señalan tres problemas clave en la forma en que las guías interpretan esta definición:

1. La regresión logística está dentro del alcance de la definición

El párrafo 42 afirma que “los sistemas para mejorar la optimización matemática” están fuera de su alcance. En este contexto, se proporcionan ejemplos de métodos como la regresión lineal o logística. Sin embargo, fuera de este contexto, estos métodos estarían dentro del alcance de la ley.

Esto se hace evidente al leer el párrafo 45, que distingue entre “optimizar el funcionamiento de los sistemas” y “ajustes de sus modelos de toma de decisiones”. El segundo de estos permanece dentro del alcance del Acta de IA, que cubre aplicaciones en áreas de alto riesgo, como la evaluación de “la elegibilidad de las personas naturales para beneficios y servicios públicos esenciales”. El uso de la regresión logística en tales aplicaciones implicaría hacer “ajustes de sus modelos de toma de decisiones”.

2. Contradicción entre un considerando y las guías

Las guías intentan distinguir entre sistemas de IA y “sistemas de software tradicionales más simples”, pero contribuyen a la confusión. El considerando 12 del Acta de IA establece que “una característica clave de los sistemas de IA es su capacidad para inferir”, mientras que las guías contradicen esto al afirmar que “si bien esos modelos [métodos de optimización] tienen la capacidad de inferir, no trascienden el ‘procesamiento de datos básico’”.

3. Razonamiento extraño

El razonamiento presentado es bizarro: “una indicación de que un sistema no trasciende el procesamiento básico de datos podría ser que ha sido utilizado de manera consolidada durante muchos años.” La duración del uso de un sistema debería ser irrelevante aquí.

Este no es el único caso donde se utilizan explicaciones extrañas para colocar técnicas de IA fuera del alcance. Otra justificación es el rendimiento: “todos los sistemas basados en máquinas cuyo rendimiento se puede lograr a través de una regla de aprendizaje estadístico básico, aunque técnicamente puedan clasificarse como basados en enfoques de aprendizaje automático, caen fuera del alcance de la definición de sistema de IA, debido a su rendimiento.”

Conclusiones

Estas guías no logran proporcionar claridad y, en cambio, agregan a la confusión. Afortunadamente, estas pautas no son vinculantes legalmente. Se espera que los reguladores y los organismos responsables de los derechos fundamentales utilicen un razonamiento sólido al interpretar la definición de sistemas de IA.

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...