Definición de Sistemas de Inteligencia Artificial: Claves de las Guías de la Comisión Europea

Comprendiendo el Alcance de la Definición de “Sistema de Inteligencia Artificial (IA)”

Con la entrada en vigor de la Ley de IA (Reglamento 2024/1689) en agosto de 2024, se estableció un marco pionero para la IA.

El 2 de febrero de 2025, las primeras disposiciones de la Ley de IA se hicieron aplicables, incluyendo la definición de sistema de IA, la alfabetización en IA y un número limitado de prácticas de IA prohibidas. En línea con el artículo 96 de la Ley de IA, la Comisión Europea publicó directrices detalladas el 6 de febrero de 2025 sobre la aplicación de la definición de un sistema de IA.

Estas directrices no vinculantes son de alta relevancia práctica, ya que buscan aportar claridad legal a uno de los aspectos más fundamentales de la ley: lo que califica como un “sistema de IA” bajo la legislación de la UE. Su publicación ofrece una orientación crítica para desarrolladores, proveedores, implementadores y autoridades regulatorias que buscan entender el alcance de la Ley de IA y evaluar si sistemas específicos se encuentran dentro de ella.

Elementos de la Definición de “Sistema de IA”

El artículo 3(1) de la Ley de IA define un sistema de IA como un sistema basado en máquinas diseñado para operar con diferentes niveles de autonomía, que puede exhibir adaptabilidad después de su implementación y que, para objetivos explícitos o implícitos, infiere a partir de la entrada que recibe cómo generar salida, como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.

La Comisión Europea enfatiza que esta definición se basa en una perspectiva de ciclo de vida, cubriendo tanto la fase de construcción (pre-implementación) como la fase de uso (post-implementación). Es importante señalar que no todos los elementos definitorios deben estar siempre presentes; algunos pueden aparecer solo en una etapa, haciendo que la definición sea adaptable a una amplia gama de tecnologías, en línea con el enfoque a prueba de futuro de la Ley de IA.

Sistema Basado en Máquinas

Las directrices reafirman que todos los sistemas de IA deben operar a través de máquinas – compuestas tanto de componentes de hardware (por ejemplo, procesadores, memoria e interfaces) como de software (por ejemplo, código, algoritmos y modelos). Esto incluye no solo sistemas digitales tradicionales, sino también plataformas avanzadas como la computación cuántica y la computación biológica, siempre que posean capacidad computacional.

Autonomía

Otro requisito esencial es la autonomía, descrita como la capacidad de un sistema para funcionar con cierto grado de independencia del control humano. Esto no necesariamente implica una automatización completa, sino que puede incluir sistemas capaces de operar basándose en entrada o supervisión indirecta del ser humano. Los sistemas diseñados para operar únicamente con intervención humana manual completa no califican como sistemas de IA.

Adaptabilidad

Un sistema de IA puede, pero no está obligado a, exhibir adaptabilidad – lo que significa que puede modificar su comportamiento después de la implementación basándose en nuevos datos o experiencias. Es importante señalar que la adaptabilidad es opcional y los sistemas sin capacidades de aprendizaje aún pueden calificar como IA si se cumplen otros criterios. Sin embargo, esta característica es crucial para diferenciar sistemas de IA dinámicos de software estático.

Objetivos de los Sistemas

Los sistemas de IA están diseñados para alcanzar objetivos específicos, que pueden ser explícitos (clara programación) o implícitos (derivados de datos de entrenamiento o comportamiento del sistema). Estos objetivos internos son diferentes del propósito previsto, que está definido externamente por su proveedor y el contexto de uso.

Capacidades de Inferencia

Es la capacidad de inferir cómo generar salida basada en datos de entrada lo que define un sistema de IA. Esto los distingue de software tradicional basado en reglas o determinista. Según las directrices, la “inferencia” abarca tanto la fase de uso, donde se generan salidas como predicciones, decisiones o recomendaciones, como la fase de construcción, donde se derivan modelos o algoritmos utilizando técnicas de IA.

Salida Que Puede Influir en Entornos Físicos o Virtuales

La salida de un sistema de IA (predicciones, contenido, recomendaciones o decisiones) debe ser capaz de influir en entornos físicos o virtuales. Esto captura la amplia funcionalidad de la IA moderna, desde vehículos autónomos y modelos de lenguaje hasta motores de recomendación. Los sistemas que solo procesan o visualizan datos sin influir en ningún resultado quedan fuera de la definición.

Interacción con el Entorno

Por último, los sistemas de IA deben ser capaces de interactuar con su entorno, ya sea físico (por ejemplo, sistemas robóticos) o virtual (por ejemplo, asistentes digitales). Este elemento subraya el impacto práctico de los sistemas de IA y los distingue aún más de software puramente pasivo o aislado.

Sistemas Excluidos de la Definición de Sistema de IA

Además de la amplia explicación de los elementos definitorios de los sistemas de IA, estas directrices aclaran lo que no se considera IA bajo la Ley de IA, incluso si algunos sistemas muestran rasgos rudimentarios de inferencia:

  • Sistemas para mejorar la optimización matemática – Sistemas, como ciertas herramientas de aprendizaje automático, que se utilizan únicamente para mejorar el rendimiento computacional (por ejemplo, para mejorar la velocidad de simulación o la asignación de ancho de banda) caen fuera del alcance a menos que impliquen toma de decisiones inteligente.
  • Herramientas básicas de procesamiento de datos – Sistemas que ejecutan instrucciones o cálculos predefinidos (por ejemplo, hojas de cálculo, tableros y bases de datos) sin aprendizaje, razonamiento o modelado no se consideran sistemas de IA.
  • Sistemas heurísticos clásicos – Sistemas de resolución de problemas basados en reglas que no evolucionan a través de datos o experiencia, como programas de ajedrez basados únicamente en algoritmos minimax, también quedan excluidos.
  • Motores de predicción simples – Herramientas que utilizan métodos estadísticos básicos (por ejemplo, predictores basados en promedios) para benchmarking o pronósticos, sin reconocimiento o inferencia de patrones complejos, no cumplen con el umbral de la definición.

La Comisión Europea concluye destacando los siguientes aspectos:

  • Debe notarse que la definición de un sistema de IA en la Ley de IA es amplia y debe evaluarse en función de cómo funciona cada sistema en la práctica.
  • No hay una lista exhaustiva de lo que se considera IA; cada caso depende de las características del sistema.
  • No todos los sistemas de IA están sujetos a obligaciones regulatorias y supervisión bajo la Ley de IA.
  • Solo aquellos que presentan mayores riesgos, como los cubiertos por las normas sobre IA prohibida o de alto riesgo, estarán bajo obligaciones legales.

Estas directrices desempeñan un papel importante en el apoyo a la implementación efectiva de la Ley de IA. Al aclarar lo que se entiende por un sistema de IA, proporcionan una mayor certeza legal y ayudan a todos los interesados relevantes, como reguladores, proveedores y usuarios, a entender cómo se aplican las normas en la práctica. Su enfoque funcional y flexible refleja la diversidad de tecnologías de IA y ofrece una base práctica para distinguir los sistemas de IA del software tradicional. Como tal, las directrices contribuyen a una aplicación más coherente y fiable de la regulación en toda la UE.

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...