Directrices de la Comisión Europea sobre la Definición de un “Sistema de IA”
En febrero de 2025, la Comisión Europea publicó dos conjuntos de directrices para aclarar aspectos clave de la Ley de Inteligencia Artificial de la UE (“Ley de IA”): Directrices sobre la definición de un sistema de IA y Directrices sobre prácticas de IA prohibidas. Estas directrices tienen como objetivo proporcionar orientación sobre el conjunto de obligaciones de la Ley de IA que comenzaron a aplicarse el 2 de febrero de 2025, lo que incluye la sección de definiciones de la Ley de IA, obligaciones relacionadas con la alfabetización en IA y prohibiciones sobre ciertas prácticas de IA.
Definiendo un “Sistema de IA” Bajo la Ley de IA
La Ley de IA (Artículo 3(1)) define un “sistema de IA” como un sistema basado en máquinas diseñado para operar con diferentes niveles de autonomía, que puede exhibir adaptabilidad después de su implementación, y que, con objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas, tales como predicciones, contenido, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales. Las Directrices sobre la Definición de Sistemas de IA proporcionan una guía explicativa sobre cada uno de estos siete elementos.
Puntos Clave de las Directrices
- Basado en máquinas. El término “basado en máquinas” se refiere al hecho de que los sistemas de IA son desarrollados y funcionan en máquinas, abarcando una amplia variedad de sistemas computacionales, incluidos los sistemas emergentes de computación cuántica.
- Autonomía. La noción de “diferentes niveles de autonomía” se refiere a la capacidad del sistema para operar con cierto grado de independencia de la intervención humana. Los sistemas que requieren intervención manual total quedan fuera de la definición de sistema de IA.
- Adaptabilidad. La adaptabilidad después de la implementación se refiere a las capacidades de autoaprendizaje de un sistema, permitiendo que su comportamiento cambie mientras está en uso. Sin embargo, no es una condición necesaria para calificar como sistema de IA.
- Objetivos. Los objetivos son las metas explícitas o implícitas de la tarea que debe realizar el sistema de IA. Las directrices también establecen una distinción entre los “objetivos” internos del sistema y su “propósito intencionado”, que es externo al sistema.
- Inferencia y técnicas de IA. La capacidad de inferir cómo generar salidas a partir de la entrada recibida es una condición indispensable de los sistemas de IA. Las técnicas de IA que permiten inferencias incluyen el aprendizaje supervisado, no supervisado y el aprendizaje profundo.
- Salidas. Las salidas incluyen categorías como predicciones, contenido, recomendaciones y decisiones. Estas salidas son fundamentales para el funcionamiento de un sistema de IA.
- Interacción con el entorno. Un sistema de IA no es pasivo, sino que impacta activamente el entorno en el que se despliega, ya sea físico o virtual.
Las directrices también señalan que quedan excluidos de la definición de sistema de IA los “sistemas de software tradicionales más simples”. Proporcionan ejemplos de sistemas que pueden caer en esta categoría, como aquellos destinados a mejorar la optimización matemática y el procesamiento de datos básicos. Aunque algunos de estos sistemas tienen la capacidad de inferir, están fuera del alcance de la definición debido a su capacidad limitada para analizar patrones y ajustar autónomamente sus salidas.
Las directrices clarifican así el marco regulatorio que rodea a los sistemas de IA, subrayando la importancia de entender sus capacidades y limitaciones en el contexto de la legislación emergente en la Unión Europea.