Nuevas Directrices de la Comisión Europea para Definir un Sistema de IA

Directrices de la Comisión Europea sobre la Definición de un “Sistema de IA”

En febrero de 2025, la Comisión Europea publicó dos conjuntos de directrices para aclarar aspectos clave de la Ley de Inteligencia Artificial de la UE (“Ley de IA”): Directrices sobre la definición de un sistema de IA y Directrices sobre prácticas de IA prohibidas. Estas directrices tienen como objetivo proporcionar orientación sobre el conjunto de obligaciones de la Ley de IA que comenzaron a aplicarse el 2 de febrero de 2025, lo que incluye la sección de definiciones de la Ley de IA, obligaciones relacionadas con la alfabetización en IA y prohibiciones sobre ciertas prácticas de IA.

Definiendo un “Sistema de IA” Bajo la Ley de IA

La Ley de IA (Artículo 3(1)) define un “sistema de IA” como un sistema basado en máquinas diseñado para operar con diferentes niveles de autonomía, que puede exhibir adaptabilidad después de su implementación, y que, con objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas, tales como predicciones, contenido, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales. Las Directrices sobre la Definición de Sistemas de IA proporcionan una guía explicativa sobre cada uno de estos siete elementos.

Puntos Clave de las Directrices

  • Basado en máquinas. El término “basado en máquinas” se refiere al hecho de que los sistemas de IA son desarrollados y funcionan en máquinas, abarcando una amplia variedad de sistemas computacionales, incluidos los sistemas emergentes de computación cuántica.
  • Autonomía. La noción de “diferentes niveles de autonomía” se refiere a la capacidad del sistema para operar con cierto grado de independencia de la intervención humana. Los sistemas que requieren intervención manual total quedan fuera de la definición de sistema de IA.
  • Adaptabilidad. La adaptabilidad después de la implementación se refiere a las capacidades de autoaprendizaje de un sistema, permitiendo que su comportamiento cambie mientras está en uso. Sin embargo, no es una condición necesaria para calificar como sistema de IA.
  • Objetivos. Los objetivos son las metas explícitas o implícitas de la tarea que debe realizar el sistema de IA. Las directrices también establecen una distinción entre los “objetivos” internos del sistema y su “propósito intencionado”, que es externo al sistema.
  • Inferencia y técnicas de IA. La capacidad de inferir cómo generar salidas a partir de la entrada recibida es una condición indispensable de los sistemas de IA. Las técnicas de IA que permiten inferencias incluyen el aprendizaje supervisado, no supervisado y el aprendizaje profundo.
  • Salidas. Las salidas incluyen categorías como predicciones, contenido, recomendaciones y decisiones. Estas salidas son fundamentales para el funcionamiento de un sistema de IA.
  • Interacción con el entorno. Un sistema de IA no es pasivo, sino que impacta activamente el entorno en el que se despliega, ya sea físico o virtual.

Las directrices también señalan que quedan excluidos de la definición de sistema de IA los “sistemas de software tradicionales más simples”. Proporcionan ejemplos de sistemas que pueden caer en esta categoría, como aquellos destinados a mejorar la optimización matemática y el procesamiento de datos básicos. Aunque algunos de estos sistemas tienen la capacidad de inferir, están fuera del alcance de la definición debido a su capacidad limitada para analizar patrones y ajustar autónomamente sus salidas.

Las directrices clarifican así el marco regulatorio que rodea a los sistemas de IA, subrayando la importancia de entender sus capacidades y limitaciones en el contexto de la legislación emergente en la Unión Europea.

More Insights

Texas Aprueba Nueva Ley de Inteligencia Artificial

El gobernador de Texas firmó la Ley de Gobernanza Responsable de Inteligencia Artificial de Texas (TRAIGA) el 22 de junio de 2025, convirtiendo a Texas en el segundo estado en aprobar una regulación...

La nueva realidad de la política internacional de IA

Desde principios de 2025, la dirección estratégica de la política de inteligencia artificial (IA) ha cambiado drásticamente para centrarse en la capacidad de los estados nacionales para "ganar la...

La nueva realidad de la política internacional de IA

Desde principios de 2025, la dirección estratégica de la política de inteligencia artificial (IA) ha cambiado drásticamente para centrarse en la capacidad de los estados nacionales para "ganar la...

Las organizaciones adoptan IA, pero fallan en su gobernanza

Según una nueva investigación, el 93 por ciento de las empresas en el Reino Unido utilizan IA en alguna capacidad, pero la mayoría carece de los marcos necesarios para gestionar sus riesgos. Solo el...

Gobernanza de Datos en la Nueva Ley de IA de la UE

La Ley de Inteligencia Artificial de la Unión Europea propone un marco para regular la IA, especialmente para los sistemas de "alto riesgo". El Artículo 10 se centra en los datos y la gobernanza de...

Código de Práctica de IA: Implicaciones y Reacciones de la Industria

La Comisión Europea ha publicado un Código de Práctica voluntario para ayudar a la industria a cumplir con las obligaciones de la Ley de IA en relación con la seguridad, la transparencia y los...

Nuevas Normas de Cumplimiento de IA en la UE para Modelos de Alto Riesgo

La Comisión Europea ha publicado directrices para ayudar a las empresas a cumplir con la ley de inteligencia artificial de la UE, que entrará en vigor el 2 de agosto para modelos de IA con riesgos...