Definición de Sistemas de Inteligencia Artificial: Claves de las Guías de la Comisión Europea

Comprendiendo el Alcance de la Definición de “Sistema de Inteligencia Artificial (IA)”

Con la entrada en vigor de la Ley de IA (Reglamento 2024/1689) en agosto de 2024, se estableció un marco pionero para la IA.

El 2 de febrero de 2025, las primeras disposiciones de la Ley de IA se hicieron aplicables, incluyendo la definición de sistema de IA, la alfabetización en IA y un número limitado de prácticas de IA prohibidas. En línea con el artículo 96 de la Ley de IA, la Comisión Europea publicó directrices detalladas el 6 de febrero de 2025 sobre la aplicación de la definición de un sistema de IA.

Estas directrices no vinculantes son de alta relevancia práctica, ya que buscan aportar claridad legal a uno de los aspectos más fundamentales de la ley: lo que califica como un “sistema de IA” bajo la legislación de la UE. Su publicación ofrece una orientación crítica para desarrolladores, proveedores, implementadores y autoridades regulatorias que buscan entender el alcance de la Ley de IA y evaluar si sistemas específicos se encuentran dentro de ella.

Elementos de la Definición de “Sistema de IA”

El artículo 3(1) de la Ley de IA define un sistema de IA como un sistema basado en máquinas diseñado para operar con diferentes niveles de autonomía, que puede exhibir adaptabilidad después de su implementación y que, para objetivos explícitos o implícitos, infiere a partir de la entrada que recibe cómo generar salida, como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.

La Comisión Europea enfatiza que esta definición se basa en una perspectiva de ciclo de vida, cubriendo tanto la fase de construcción (pre-implementación) como la fase de uso (post-implementación). Es importante señalar que no todos los elementos definitorios deben estar siempre presentes; algunos pueden aparecer solo en una etapa, haciendo que la definición sea adaptable a una amplia gama de tecnologías, en línea con el enfoque a prueba de futuro de la Ley de IA.

Sistema Basado en Máquinas

Las directrices reafirman que todos los sistemas de IA deben operar a través de máquinas – compuestas tanto de componentes de hardware (por ejemplo, procesadores, memoria e interfaces) como de software (por ejemplo, código, algoritmos y modelos). Esto incluye no solo sistemas digitales tradicionales, sino también plataformas avanzadas como la computación cuántica y la computación biológica, siempre que posean capacidad computacional.

Autonomía

Otro requisito esencial es la autonomía, descrita como la capacidad de un sistema para funcionar con cierto grado de independencia del control humano. Esto no necesariamente implica una automatización completa, sino que puede incluir sistemas capaces de operar basándose en entrada o supervisión indirecta del ser humano. Los sistemas diseñados para operar únicamente con intervención humana manual completa no califican como sistemas de IA.

Adaptabilidad

Un sistema de IA puede, pero no está obligado a, exhibir adaptabilidad – lo que significa que puede modificar su comportamiento después de la implementación basándose en nuevos datos o experiencias. Es importante señalar que la adaptabilidad es opcional y los sistemas sin capacidades de aprendizaje aún pueden calificar como IA si se cumplen otros criterios. Sin embargo, esta característica es crucial para diferenciar sistemas de IA dinámicos de software estático.

Objetivos de los Sistemas

Los sistemas de IA están diseñados para alcanzar objetivos específicos, que pueden ser explícitos (clara programación) o implícitos (derivados de datos de entrenamiento o comportamiento del sistema). Estos objetivos internos son diferentes del propósito previsto, que está definido externamente por su proveedor y el contexto de uso.

Capacidades de Inferencia

Es la capacidad de inferir cómo generar salida basada en datos de entrada lo que define un sistema de IA. Esto los distingue de software tradicional basado en reglas o determinista. Según las directrices, la “inferencia” abarca tanto la fase de uso, donde se generan salidas como predicciones, decisiones o recomendaciones, como la fase de construcción, donde se derivan modelos o algoritmos utilizando técnicas de IA.

Salida Que Puede Influir en Entornos Físicos o Virtuales

La salida de un sistema de IA (predicciones, contenido, recomendaciones o decisiones) debe ser capaz de influir en entornos físicos o virtuales. Esto captura la amplia funcionalidad de la IA moderna, desde vehículos autónomos y modelos de lenguaje hasta motores de recomendación. Los sistemas que solo procesan o visualizan datos sin influir en ningún resultado quedan fuera de la definición.

Interacción con el Entorno

Por último, los sistemas de IA deben ser capaces de interactuar con su entorno, ya sea físico (por ejemplo, sistemas robóticos) o virtual (por ejemplo, asistentes digitales). Este elemento subraya el impacto práctico de los sistemas de IA y los distingue aún más de software puramente pasivo o aislado.

Sistemas Excluidos de la Definición de Sistema de IA

Además de la amplia explicación de los elementos definitorios de los sistemas de IA, estas directrices aclaran lo que no se considera IA bajo la Ley de IA, incluso si algunos sistemas muestran rasgos rudimentarios de inferencia:

  • Sistemas para mejorar la optimización matemática – Sistemas, como ciertas herramientas de aprendizaje automático, que se utilizan únicamente para mejorar el rendimiento computacional (por ejemplo, para mejorar la velocidad de simulación o la asignación de ancho de banda) caen fuera del alcance a menos que impliquen toma de decisiones inteligente.
  • Herramientas básicas de procesamiento de datos – Sistemas que ejecutan instrucciones o cálculos predefinidos (por ejemplo, hojas de cálculo, tableros y bases de datos) sin aprendizaje, razonamiento o modelado no se consideran sistemas de IA.
  • Sistemas heurísticos clásicos – Sistemas de resolución de problemas basados en reglas que no evolucionan a través de datos o experiencia, como programas de ajedrez basados únicamente en algoritmos minimax, también quedan excluidos.
  • Motores de predicción simples – Herramientas que utilizan métodos estadísticos básicos (por ejemplo, predictores basados en promedios) para benchmarking o pronósticos, sin reconocimiento o inferencia de patrones complejos, no cumplen con el umbral de la definición.

La Comisión Europea concluye destacando los siguientes aspectos:

  • Debe notarse que la definición de un sistema de IA en la Ley de IA es amplia y debe evaluarse en función de cómo funciona cada sistema en la práctica.
  • No hay una lista exhaustiva de lo que se considera IA; cada caso depende de las características del sistema.
  • No todos los sistemas de IA están sujetos a obligaciones regulatorias y supervisión bajo la Ley de IA.
  • Solo aquellos que presentan mayores riesgos, como los cubiertos por las normas sobre IA prohibida o de alto riesgo, estarán bajo obligaciones legales.

Estas directrices desempeñan un papel importante en el apoyo a la implementación efectiva de la Ley de IA. Al aclarar lo que se entiende por un sistema de IA, proporcionan una mayor certeza legal y ayudan a todos los interesados relevantes, como reguladores, proveedores y usuarios, a entender cómo se aplican las normas en la práctica. Su enfoque funcional y flexible refleja la diversidad de tecnologías de IA y ofrece una base práctica para distinguir los sistemas de IA del software tradicional. Como tal, las directrices contribuyen a una aplicación más coherente y fiable de la regulación en toda la UE.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...