Definición de Sistemas de IA según la Comisión Europea

Directrices de la Comisión Europea sobre la Definición de un “Sistema de IA”

En febrero de 2025, la Comisión Europea publicó dos conjuntos de directrices para aclarar aspectos clave de la Ley de Inteligencia Artificial de la UE (“Ley de IA”): las Directrices sobre la definición de un sistema de IA y las Directrices sobre prácticas de IA prohibidas. Estas directrices tienen como objetivo proporcionar orientación sobre el conjunto de obligaciones de la Ley de IA que comenzaron a aplicarse el 2 de febrero de 2025.

Definición de un “Sistema de IA” bajo la Ley de IA

La Ley de IA (Artículo 3(1)) define un “sistema de IA” como (1) un sistema basado en máquinas; (2) diseñado para operar con diferentes niveles de autonomía; (3) que puede exhibir adaptabilidad después de su implementación; (4) y que, para objetivos explícitos o implícitos; (5) infiere, a partir de la entrada que recibe, cómo generar salidas; (6) tales como predicciones, contenido, recomendaciones o decisiones; (7) que pueden influir en entornos físicos o virtuales. Las Directrices sobre la Definición de Sistemas de IA brindan orientación explicativa sobre cada uno de estos siete elementos.

Aspectos Clave de las Directrices

  • Basado en máquinas: El término “basado en máquinas” se refiere a que los sistemas de IA son desarrollados y funcionan en máquinas, abarcando una amplia variedad de sistemas computacionales, incluidos los sistemas emergentes de computación cuántica.
  • Niveles de autonomía: La noción de “niveles de autonomía variables” se refiere a la capacidad del sistema para operar con cierto grado de independencia de la intervención humana. Sistemas diseñados para operar exclusivamente con intervención manual completa quedan fuera de la definición.
  • Adaptabilidad: La adaptabilidad después de la implementación se refiere a las capacidades de auto-aprendizaje, permitiendo que el comportamiento del sistema cambie mientras se utiliza. Sin embargo, la adaptabilidad no es un requisito necesario para calificar como sistema de IA.
  • Objetivos: Los objetivos son las metas explícitas o implícitas de la tarea que debe realizar ese sistema de IA. Es importante distinguir entre los “objetivos” de un sistema y su “propósito intencionado”, que se relaciona con el contexto de implementación.
  • Inferencia y técnicas de IA: La capacidad de inferir, a partir de la entrada recibida, cómo generar salidas es una condición indispensable de los sistemas de IA. Se incluyen técnicas como el aprendizaje supervisado, el aprendizaje no supervisado y el aprendizaje profundo.
  • Salidas: Las salidas pueden incluir cuatro categorías amplias: (1) predicciones, (2) contenido, (3) recomendaciones y (4) decisiones.
  • Interacción con el entorno: Un sistema de IA no es pasivo, sino que impacta activamente el entorno en el que se despliega, ya sea físico o virtual.

Exclusiones de la Definición de Sistema de IA

Las directrices también señalan que se excluyen de la definición de sistema de IA a “sistemas de software tradicionales más simples” y a aquellos que se basan en reglas definidas únicamente por personas naturales. Ejemplos de estos sistemas incluyen aquellos para mejorar la optimización matemática y el procesamiento de datos básicos, que, aunque poseen capacidad de inferencia, no cumplen con la definición debido a su capacidad limitada para analizar patrones y ajustar autónomamente sus salidas.

Es fundamental que los desarrolladores y las empresas comprendan estas directrices para garantizar el cumplimiento con la Ley de IA y mantener la confianza pública en las tecnologías de inteligencia artificial.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...