Clarificación de la Definición de Sistemas de IA por la Comisión Europea
La Comisión Europea ha publicado directrices que clarifican la definición de sistemas de IA bajo la Ley de IA, analizando cada componente de la definición, proporcionando ejemplos y especificando qué sistemas deben quedar fuera del alcance de esta definición. Aunque no son vinculantes, estas directrices son una herramienta útil para que las empresas evalúen si su funcionamiento se encuentra dentro del ámbito de aplicación de la Ley de IA.
Las directrices han sido aprobadas por la Comisión, pero aún no se han adoptado formalmente.
¿Cómo define la Ley de IA los Sistemas de IA?
El Artículo 3(1) de la Ley de IA define los sistemas de IA como: “sistema de IA significa un sistema basado en máquinas que está diseñado para operar con distintos niveles de autonomía y que puede mostrar adaptabilidad después de su implementación, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.” El considerando 12 de la Ley de IA proporciona orientación interpretativa no vinculante respecto a la definición de un sistema de IA, la cual es respaldada por las directrices de la Comisión Europea.
La Comisión Europea identifica y aclara los siguientes siete componentes de la definición de un sistema de IA bajo la Ley de IA:
1. Los sistemas de IA son sistemas basados en máquinas.
Las directrices aclaran que el término “basado en máquinas” se refiere a la integración de componentes de hardware y software que permiten el funcionamiento de estos sistemas, destacando que deben ser impulsados computacionalmente y basados en operaciones de máquinas.
2. Los sistemas de IA deben tener cierto grado de autonomía.
El considerando 12 de la Ley de IA especifica que los sistemas de IA deben tener “cierto grado de independencia de acciones respecto a la intervención humana y capacidades para operar sin intervención humana”. La Comisión Europea elabora que la noción de un sistema de IA excluye aquellos diseñados para operar únicamente con la intervención manual completa de humanos.
3. Los sistemas de IA pueden adaptarse después de su implementación.
Según la Ley de IA, un sistema puede mostrar adaptabilidad después de su implementación. El considerando 12 aclara que la “adaptabilidad” se refiere a capacidades de autoaprendizaje, permitiendo que el comportamiento del sistema cambie mientras se utiliza.
4. Los sistemas de IA están diseñados para operar según objetivos.
Las directrices especifican que los objetivos del sistema pueden ser explícitos (es decir, metas claramente establecidas que el desarrollador codifica directamente en el sistema) o implícitos (es decir, metas que no se establecen explícitamente pero que pueden deducirse del comportamiento del sistema).
5. Los sistemas de IA deben ser capaces de inferir salidas.
Este es un elemento clave de la definición de “sistemas de IA”. El considerando 12 establece que la definición tiene como objetivo distinguir los sistemas de IA de los sistemas de software tradicionales más simples. Las directrices aclaran cómo evaluar la capacidad de inferir salidas y qué se considera un sistema de IA capaz de inferir.
En general, la inferencia se relaciona con la capacidad de un sistema de IA para crear (inferir) salidas a partir de la entrada recibida sin estar limitado únicamente por reglas definidas por humanos.
6. Las salidas del sistema de IA deben ser capaces de influir en entornos físicos o virtuales.
La Comisión describe los cuatro tipos de salidas que se mencionan en la definición de un sistema de IA: predicciones, creación de contenido, recomendaciones y decisiones. Especifica que los sistemas de IA pueden generar salidas más matizadas que otros sistemas, utilizando patrones aprendidos durante el entrenamiento.
7. Los sistemas de IA deben poder interactuar con el entorno.
La Comisión aclara que este elemento de la definición implica que los sistemas de IA son activos, no pasivos. La mención de “entornos físicos o virtuales” significa que un sistema de IA puede influir en objetos tangibles, como un brazo robótico, y en configuraciones virtuales, como espacios digitales y flujos de datos.
¿Qué sigue?
Como parte de su evaluación sobre si y cómo la Ley de IA puede aplicarse a sus productos y operaciones, las organizaciones deben evaluar los sistemas de IA que desarrollan y/o utilizan de acuerdo con la definición de sistema de IA en la Ley y las directrices.
Esta evaluación, especialmente en lo que respecta a la capacidad de inferencia de la definición, debe ser realizada por equipos tanto legales como técnicos.