Definición de Sistemas de IA: Nuevas Directrices de la Comisión Europea

Guías de la Comisión Europea sobre la Definición de Sistemas de IA bajo la Ley de IA

El 6 de febrero de 2025, la Comisión Europea publicó directrices que definen un sistema de inteligencia artificial (IA) como una entidad basada en máquinas con autonomía, adaptabilidad y la capacidad de inferir y producir resultados que impactan en entornos físicos o virtuales. Estas directrices detallan siete elementos clave de un sistema de IA y distinguen entre las fases de pre-despliegue (construcción) y post-despliegue (uso).

Definición

Según el artículo 3(1) de la Ley de IA, un sistema de IA se define como «un sistema basado en máquinas diseñado para operar con niveles variables de autonomía que puede exhibir adaptabilidad después del despliegue, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.»

Elementos de un Sistema de IA

Las directrices aclaran que la definición incluye siete elementos:

  • Sistema basado en máquinas
  • Diseñado para operar con niveles variables de autonomía
  • Puede exhibir adaptabilidad después del despliegue
  • Objetivos explícitos o implícitos
  • Inferencia a partir de los datos de entrada
  • Generación de salidas como predicciones, contenido, recomendaciones o decisiones
  • Interacción con el entorno físico o virtual

Fases del Ciclo de Vida de la IA

La definición de un sistema de IA también abarca dos fases principales del ciclo de vida de la IA: la fase de pre-despliegue (construcción) y la fase de post-despliegue (uso) del sistema de IA. Las directrices estipulan que los siete elementos pueden aparecer en una fase, pero no necesariamente en ambas.

1. Sistema Basado en Máquinas

El término basado en máquinas se refiere a componentes de hardware y software que permiten el funcionamiento de un sistema de IA. Los sistemas de IA deben ser impulsados computacionalmente y basados en operaciones de máquinas.

2. Autonomía

El término niveles variables de autonomía implica que los sistemas de IA están diseñados para operar con cierto grado de independencia de la intervención humana. La capacidad de inferencia de un sistema de IA es clave para su autonomía. Se excluyen los sistemas que requieren intervención humana completa para funcionar.

3. Adaptabilidad

La adaptabilidad de un sistema de IA se relaciona con sus capacidades de auto-aprendizaje, permitiendo que el comportamiento del sistema cambie durante su uso. Sin embargo, las directrices aclaran que un sistema no necesariamente debe poseer adaptabilidad para ser considerado un sistema de IA.

4. Objetivos del Sistema de IA

Los objetivos de los sistemas de IA pueden ser tanto explícitos como implícitos, refiriéndose a las metas de las tareas a realizar y sus resultados. Estos objetivos pueden surgir de los datos de entrenamiento o de la interacción del sistema con su entorno.

5. Inferencia

La capacidad de inferir es considerada por las directrices como una condición indispensable que distingue a los sistemas de IA de otros tipos de sistemas. La inferencia se refiere a la fase de construcción de un sistema de IA, utilizando enfoques como el aprendizaje supervisado, no supervisado, auto-supervisado, de refuerzo y profundo, así como enfoques basados en lógica y conocimiento.

6. Salidas que Influyen en el Entorno

Las salidas de los sistemas de IA se agrupan en cuatro categorías: predicciones, contenido, recomendaciones y decisiones. Todas estas categorías son distintas de los sistemas no IA, ya que pueden manejar relaciones complejas y patrones en los datos, generando salidas más matizadas.

7. Interacción con el Entorno

Finalmente, las directrices enfatizan que los sistemas de IA deben tener un impacto tangible en el entorno en el que se despliegan, ya sea físico o virtual.

Este marco proporciona claridad sobre la definición y los elementos de los sistemas de IA, ayudando a guiar su desarrollo y aplicación en la práctica.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...