Clarificación de la Definición de Sistemas de IA por la Comisión Europea

Clarificación de la Definición de Sistemas de IA por la Comisión Europea

La Comisión Europea ha publicado directrices que clarifican la definición de sistemas de IA bajo la Ley de IA, analizando cada componente de la definición, proporcionando ejemplos y especificando qué sistemas deben quedar fuera del alcance de esta definición. Aunque no son vinculantes, estas directrices son una herramienta útil para que las empresas evalúen si su funcionamiento se encuentra dentro del ámbito de aplicación de la Ley de IA.

Las directrices han sido aprobadas por la Comisión, pero aún no se han adoptado formalmente.

¿Cómo define la Ley de IA los Sistemas de IA?

El Artículo 3(1) de la Ley de IA define los sistemas de IA como: “sistema de IA significa un sistema basado en máquinas que está diseñado para operar con distintos niveles de autonomía y que puede mostrar adaptabilidad después de su implementación, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.” El considerando 12 de la Ley de IA proporciona orientación interpretativa no vinculante respecto a la definición de un sistema de IA, la cual es respaldada por las directrices de la Comisión Europea.

La Comisión Europea identifica y aclara los siguientes siete componentes de la definición de un sistema de IA bajo la Ley de IA:

1. Los sistemas de IA son sistemas basados en máquinas.

Las directrices aclaran que el término “basado en máquinas” se refiere a la integración de componentes de hardware y software que permiten el funcionamiento de estos sistemas, destacando que deben ser impulsados computacionalmente y basados en operaciones de máquinas.

2. Los sistemas de IA deben tener cierto grado de autonomía.

El considerando 12 de la Ley de IA especifica que los sistemas de IA deben tener “cierto grado de independencia de acciones respecto a la intervención humana y capacidades para operar sin intervención humana”. La Comisión Europea elabora que la noción de un sistema de IA excluye aquellos diseñados para operar únicamente con la intervención manual completa de humanos.

3. Los sistemas de IA pueden adaptarse después de su implementación.

Según la Ley de IA, un sistema puede mostrar adaptabilidad después de su implementación. El considerando 12 aclara que la “adaptabilidad” se refiere a capacidades de autoaprendizaje, permitiendo que el comportamiento del sistema cambie mientras se utiliza.

4. Los sistemas de IA están diseñados para operar según objetivos.

Las directrices especifican que los objetivos del sistema pueden ser explícitos (es decir, metas claramente establecidas que el desarrollador codifica directamente en el sistema) o implícitos (es decir, metas que no se establecen explícitamente pero que pueden deducirse del comportamiento del sistema).

5. Los sistemas de IA deben ser capaces de inferir salidas.

Este es un elemento clave de la definición de “sistemas de IA”. El considerando 12 establece que la definición tiene como objetivo distinguir los sistemas de IA de los sistemas de software tradicionales más simples. Las directrices aclaran cómo evaluar la capacidad de inferir salidas y qué se considera un sistema de IA capaz de inferir.

En general, la inferencia se relaciona con la capacidad de un sistema de IA para crear (inferir) salidas a partir de la entrada recibida sin estar limitado únicamente por reglas definidas por humanos.

6. Las salidas del sistema de IA deben ser capaces de influir en entornos físicos o virtuales.

La Comisión describe los cuatro tipos de salidas que se mencionan en la definición de un sistema de IA: predicciones, creación de contenido, recomendaciones y decisiones. Especifica que los sistemas de IA pueden generar salidas más matizadas que otros sistemas, utilizando patrones aprendidos durante el entrenamiento.

7. Los sistemas de IA deben poder interactuar con el entorno.

La Comisión aclara que este elemento de la definición implica que los sistemas de IA son activos, no pasivos. La mención de “entornos físicos o virtuales” significa que un sistema de IA puede influir en objetos tangibles, como un brazo robótico, y en configuraciones virtuales, como espacios digitales y flujos de datos.

¿Qué sigue?

Como parte de su evaluación sobre si y cómo la Ley de IA puede aplicarse a sus productos y operaciones, las organizaciones deben evaluar los sistemas de IA que desarrollan y/o utilizan de acuerdo con la definición de sistema de IA en la Ley y las directrices.

Esta evaluación, especialmente en lo que respecta a la capacidad de inferencia de la definición, debe ser realizada por equipos tanto legales como técnicos.

More Insights

La Crisis de Responsabilidad en la IA Empresarial

La inteligencia artificial ha alcanzado un punto de inflexión, pero muchos proyectos de IA nunca llegan a producción y los que lo hacen a menudo operan como cajas negras digitales. Sin una supervisión...

Comisión considera un período de gracia para cumplimiento del Código de IA

La Comisión está considerando ofrecer a las empresas un período de gracia para cumplir con el código de inteligencia artificial. Esta medida busca facilitar la adaptación de las empresas a las nuevas...

Texas y la Regulación de la Inteligencia Artificial: Un Nuevo Horizonte

El 22 de junio de 2025, Texas aprobó la Ley de Gobernanza de Inteligencia Artificial Responsable, convirtiéndose en el segundo estado en implementar una legislación integral sobre IA. La ley establece...

Texas y la Regulación de la Inteligencia Artificial: Un Nuevo Horizonte

El 22 de junio de 2025, Texas aprobó la Ley de Gobernanza de Inteligencia Artificial Responsable, convirtiéndose en el segundo estado en implementar una legislación integral sobre IA. La ley establece...

Leyes europeas contra los deepfakes: ¿Qué países están liderando la lucha?

Dinamarca otorgará a las personas derechos de autor sobre sus propias imágenes como una forma de combatir los videos "deepfake". La ley hará ilegal compartir deepfakes y otras "imitaciones digitales"...

Hoja de ruta gubernamental para una IA inteligente y ética

El gobierno federal quiere impulsar la productividad lanzando inteligencia artificial (IA) "a gran escala", modernizando así el servicio público con herramientas de IA. Sin embargo, es crucial un...

Desafíos y Oportunidades en la Regulación de la IA

El 1 de julio de 2025, el Senado de los Estados Unidos votó abrumadoramente para rechazar un moratorio propuesto de diez años sobre la regulación estatal de la inteligencia artificial. Esta decisión...

El nuevo paisaje regulatorio de la IA en EE. UU.

El 1 de julio de 2025, el Senado de los Estados Unidos votó abrumadoramente para rechazar una moratoria propuesta de diez años sobre la regulación estatal de la inteligencia artificial. Esta decisión...