Definición de Sistemas de Inteligencia Artificial: Claves de las Guías de la Comisión Europea

Comprendiendo el Alcance de la Definición de “Sistema de Inteligencia Artificial (IA)”

Con la entrada en vigor de la Ley de IA (Reglamento 2024/1689) en agosto de 2024, se estableció un marco pionero para la IA.

El 2 de febrero de 2025, las primeras disposiciones de la Ley de IA se hicieron aplicables, incluyendo la definición de sistema de IA, la alfabetización en IA y un número limitado de prácticas de IA prohibidas. En línea con el artículo 96 de la Ley de IA, la Comisión Europea publicó directrices detalladas el 6 de febrero de 2025 sobre la aplicación de la definición de un sistema de IA.

Estas directrices no vinculantes son de alta relevancia práctica, ya que buscan aportar claridad legal a uno de los aspectos más fundamentales de la ley: lo que califica como un “sistema de IA” bajo la legislación de la UE. Su publicación ofrece una orientación crítica para desarrolladores, proveedores, implementadores y autoridades regulatorias que buscan entender el alcance de la Ley de IA y evaluar si sistemas específicos se encuentran dentro de ella.

Elementos de la Definición de “Sistema de IA”

El artículo 3(1) de la Ley de IA define un sistema de IA como un sistema basado en máquinas diseñado para operar con diferentes niveles de autonomía, que puede exhibir adaptabilidad después de su implementación y que, para objetivos explícitos o implícitos, infiere a partir de la entrada que recibe cómo generar salida, como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.

La Comisión Europea enfatiza que esta definición se basa en una perspectiva de ciclo de vida, cubriendo tanto la fase de construcción (pre-implementación) como la fase de uso (post-implementación). Es importante señalar que no todos los elementos definitorios deben estar siempre presentes; algunos pueden aparecer solo en una etapa, haciendo que la definición sea adaptable a una amplia gama de tecnologías, en línea con el enfoque a prueba de futuro de la Ley de IA.

Sistema Basado en Máquinas

Las directrices reafirman que todos los sistemas de IA deben operar a través de máquinas – compuestas tanto de componentes de hardware (por ejemplo, procesadores, memoria e interfaces) como de software (por ejemplo, código, algoritmos y modelos). Esto incluye no solo sistemas digitales tradicionales, sino también plataformas avanzadas como la computación cuántica y la computación biológica, siempre que posean capacidad computacional.

Autonomía

Otro requisito esencial es la autonomía, descrita como la capacidad de un sistema para funcionar con cierto grado de independencia del control humano. Esto no necesariamente implica una automatización completa, sino que puede incluir sistemas capaces de operar basándose en entrada o supervisión indirecta del ser humano. Los sistemas diseñados para operar únicamente con intervención humana manual completa no califican como sistemas de IA.

Adaptabilidad

Un sistema de IA puede, pero no está obligado a, exhibir adaptabilidad – lo que significa que puede modificar su comportamiento después de la implementación basándose en nuevos datos o experiencias. Es importante señalar que la adaptabilidad es opcional y los sistemas sin capacidades de aprendizaje aún pueden calificar como IA si se cumplen otros criterios. Sin embargo, esta característica es crucial para diferenciar sistemas de IA dinámicos de software estático.

Objetivos de los Sistemas

Los sistemas de IA están diseñados para alcanzar objetivos específicos, que pueden ser explícitos (clara programación) o implícitos (derivados de datos de entrenamiento o comportamiento del sistema). Estos objetivos internos son diferentes del propósito previsto, que está definido externamente por su proveedor y el contexto de uso.

Capacidades de Inferencia

Es la capacidad de inferir cómo generar salida basada en datos de entrada lo que define un sistema de IA. Esto los distingue de software tradicional basado en reglas o determinista. Según las directrices, la “inferencia” abarca tanto la fase de uso, donde se generan salidas como predicciones, decisiones o recomendaciones, como la fase de construcción, donde se derivan modelos o algoritmos utilizando técnicas de IA.

Salida Que Puede Influir en Entornos Físicos o Virtuales

La salida de un sistema de IA (predicciones, contenido, recomendaciones o decisiones) debe ser capaz de influir en entornos físicos o virtuales. Esto captura la amplia funcionalidad de la IA moderna, desde vehículos autónomos y modelos de lenguaje hasta motores de recomendación. Los sistemas que solo procesan o visualizan datos sin influir en ningún resultado quedan fuera de la definición.

Interacción con el Entorno

Por último, los sistemas de IA deben ser capaces de interactuar con su entorno, ya sea físico (por ejemplo, sistemas robóticos) o virtual (por ejemplo, asistentes digitales). Este elemento subraya el impacto práctico de los sistemas de IA y los distingue aún más de software puramente pasivo o aislado.

Sistemas Excluidos de la Definición de Sistema de IA

Además de la amplia explicación de los elementos definitorios de los sistemas de IA, estas directrices aclaran lo que no se considera IA bajo la Ley de IA, incluso si algunos sistemas muestran rasgos rudimentarios de inferencia:

  • Sistemas para mejorar la optimización matemática – Sistemas, como ciertas herramientas de aprendizaje automático, que se utilizan únicamente para mejorar el rendimiento computacional (por ejemplo, para mejorar la velocidad de simulación o la asignación de ancho de banda) caen fuera del alcance a menos que impliquen toma de decisiones inteligente.
  • Herramientas básicas de procesamiento de datos – Sistemas que ejecutan instrucciones o cálculos predefinidos (por ejemplo, hojas de cálculo, tableros y bases de datos) sin aprendizaje, razonamiento o modelado no se consideran sistemas de IA.
  • Sistemas heurísticos clásicos – Sistemas de resolución de problemas basados en reglas que no evolucionan a través de datos o experiencia, como programas de ajedrez basados únicamente en algoritmos minimax, también quedan excluidos.
  • Motores de predicción simples – Herramientas que utilizan métodos estadísticos básicos (por ejemplo, predictores basados en promedios) para benchmarking o pronósticos, sin reconocimiento o inferencia de patrones complejos, no cumplen con el umbral de la definición.

La Comisión Europea concluye destacando los siguientes aspectos:

  • Debe notarse que la definición de un sistema de IA en la Ley de IA es amplia y debe evaluarse en función de cómo funciona cada sistema en la práctica.
  • No hay una lista exhaustiva de lo que se considera IA; cada caso depende de las características del sistema.
  • No todos los sistemas de IA están sujetos a obligaciones regulatorias y supervisión bajo la Ley de IA.
  • Solo aquellos que presentan mayores riesgos, como los cubiertos por las normas sobre IA prohibida o de alto riesgo, estarán bajo obligaciones legales.

Estas directrices desempeñan un papel importante en el apoyo a la implementación efectiva de la Ley de IA. Al aclarar lo que se entiende por un sistema de IA, proporcionan una mayor certeza legal y ayudan a todos los interesados relevantes, como reguladores, proveedores y usuarios, a entender cómo se aplican las normas en la práctica. Su enfoque funcional y flexible refleja la diversidad de tecnologías de IA y ofrece una base práctica para distinguir los sistemas de IA del software tradicional. Como tal, las directrices contribuyen a una aplicación más coherente y fiable de la regulación en toda la UE.

More Insights

La Ley de IA de Colorado: Un Nuevo Estándar para la Regulación

La reciente fallida propuesta de miembros del Congreso para congelar las leyes de inteligencia artificial a nivel estatal ha dejado a las empresas de EE. UU. con operaciones nacionales enfrentándose a...

Plan de Acción de IA para Fortalecer la Ética en Malaysia

El próximo Plan de Acción de Tecnología de IA 2026–2030 de Malasia reforzará las salvaguardias éticas y los marcos de gobernanza en el uso de la inteligencia artificial, anunció el Ministro Digital...

Estrategias Simultáneas para una Gobernanza Efectiva de la IA

El desarrollo de políticas de inteligencia artificial (IA) responsables y estrategias generales de IA debe ocurrir simultáneamente para garantizar su efectividad. El enfoque distintivo de Bután...

Directrices para AI con Riesgos Sistémicos en la UE

La Comisión Europea estableció pautas para ayudar a los modelos de IA que se consideran de riesgo sistémico a cumplir con la regulación de inteligencia artificial de la Unión Europea. Estas...

Kerala: Pionero en IA Ética y Educación

Kerala se está convirtiendo en un referente global en la implementación ética de la inteligencia artificial (IA), especialmente en el ámbito educativo y los servicios públicos. Su enfoque combina la...

Los Estados se Adelantan en la Regulación del Desarrollo de IA en EE. UU.

Los estados de EE. UU. están comenzando a establecer sus propias regulaciones sobre el desarrollo de inteligencia artificial, tras la eliminación de una prohibición que impedía a los estados promulgar...

Cumplimiento impulsado por IA: potencial y riesgos

La inteligencia artificial en el cumplimiento está revolucionando las operaciones diarias de muchas organizaciones, mejorando la detección de fraudes y automatizando tareas intensivas en recursos. Sin...

La UE Acelera la Censura de Conservadores con Regulación de IA

La nueva normativa de la UE sobre estándares de "seguridad y protección" requerirá que las empresas tecnológicas censuren y moderen el contenido en modelos de inteligencia artificial de propósito...