Nuevas Directrices de la Comisión Europea para Definir un Sistema de IA

Directrices de la Comisión Europea sobre la Definición de un “Sistema de IA”

En febrero de 2025, la Comisión Europea publicó dos conjuntos de directrices para aclarar aspectos clave de la Ley de Inteligencia Artificial de la UE (“Ley de IA”): Directrices sobre la definición de un sistema de IA y Directrices sobre prácticas de IA prohibidas. Estas directrices tienen como objetivo proporcionar orientación sobre el conjunto de obligaciones de la Ley de IA que comenzaron a aplicarse el 2 de febrero de 2025, lo que incluye la sección de definiciones de la Ley de IA, obligaciones relacionadas con la alfabetización en IA y prohibiciones sobre ciertas prácticas de IA.

Definiendo un “Sistema de IA” Bajo la Ley de IA

La Ley de IA (Artículo 3(1)) define un “sistema de IA” como un sistema basado en máquinas diseñado para operar con diferentes niveles de autonomía, que puede exhibir adaptabilidad después de su implementación, y que, con objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas, tales como predicciones, contenido, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales. Las Directrices sobre la Definición de Sistemas de IA proporcionan una guía explicativa sobre cada uno de estos siete elementos.

Puntos Clave de las Directrices

  • Basado en máquinas. El término “basado en máquinas” se refiere al hecho de que los sistemas de IA son desarrollados y funcionan en máquinas, abarcando una amplia variedad de sistemas computacionales, incluidos los sistemas emergentes de computación cuántica.
  • Autonomía. La noción de “diferentes niveles de autonomía” se refiere a la capacidad del sistema para operar con cierto grado de independencia de la intervención humana. Los sistemas que requieren intervención manual total quedan fuera de la definición de sistema de IA.
  • Adaptabilidad. La adaptabilidad después de la implementación se refiere a las capacidades de autoaprendizaje de un sistema, permitiendo que su comportamiento cambie mientras está en uso. Sin embargo, no es una condición necesaria para calificar como sistema de IA.
  • Objetivos. Los objetivos son las metas explícitas o implícitas de la tarea que debe realizar el sistema de IA. Las directrices también establecen una distinción entre los “objetivos” internos del sistema y su “propósito intencionado”, que es externo al sistema.
  • Inferencia y técnicas de IA. La capacidad de inferir cómo generar salidas a partir de la entrada recibida es una condición indispensable de los sistemas de IA. Las técnicas de IA que permiten inferencias incluyen el aprendizaje supervisado, no supervisado y el aprendizaje profundo.
  • Salidas. Las salidas incluyen categorías como predicciones, contenido, recomendaciones y decisiones. Estas salidas son fundamentales para el funcionamiento de un sistema de IA.
  • Interacción con el entorno. Un sistema de IA no es pasivo, sino que impacta activamente el entorno en el que se despliega, ya sea físico o virtual.

Las directrices también señalan que quedan excluidos de la definición de sistema de IA los “sistemas de software tradicionales más simples”. Proporcionan ejemplos de sistemas que pueden caer en esta categoría, como aquellos destinados a mejorar la optimización matemática y el procesamiento de datos básicos. Aunque algunos de estos sistemas tienen la capacidad de inferir, están fuera del alcance de la definición debido a su capacidad limitada para analizar patrones y ajustar autónomamente sus salidas.

Las directrices clarifican así el marco regulatorio que rodea a los sistemas de IA, subrayando la importancia de entender sus capacidades y limitaciones en el contexto de la legislación emergente en la Unión Europea.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...