Clarificación de la Definición de Sistemas de IA por la Comisión Europea

Clarificación de la Definición de Sistemas de IA por la Comisión Europea

La Comisión Europea ha publicado directrices que clarifican la definición de sistemas de IA bajo la Ley de IA, analizando cada componente de la definición, proporcionando ejemplos y especificando qué sistemas deben quedar fuera del alcance de esta definición. Aunque no son vinculantes, estas directrices son una herramienta útil para que las empresas evalúen si su funcionamiento se encuentra dentro del ámbito de aplicación de la Ley de IA.

Las directrices han sido aprobadas por la Comisión, pero aún no se han adoptado formalmente.

¿Cómo define la Ley de IA los Sistemas de IA?

El Artículo 3(1) de la Ley de IA define los sistemas de IA como: “sistema de IA significa un sistema basado en máquinas que está diseñado para operar con distintos niveles de autonomía y que puede mostrar adaptabilidad después de su implementación, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.” El considerando 12 de la Ley de IA proporciona orientación interpretativa no vinculante respecto a la definición de un sistema de IA, la cual es respaldada por las directrices de la Comisión Europea.

La Comisión Europea identifica y aclara los siguientes siete componentes de la definición de un sistema de IA bajo la Ley de IA:

1. Los sistemas de IA son sistemas basados en máquinas.

Las directrices aclaran que el término “basado en máquinas” se refiere a la integración de componentes de hardware y software que permiten el funcionamiento de estos sistemas, destacando que deben ser impulsados computacionalmente y basados en operaciones de máquinas.

2. Los sistemas de IA deben tener cierto grado de autonomía.

El considerando 12 de la Ley de IA especifica que los sistemas de IA deben tener “cierto grado de independencia de acciones respecto a la intervención humana y capacidades para operar sin intervención humana”. La Comisión Europea elabora que la noción de un sistema de IA excluye aquellos diseñados para operar únicamente con la intervención manual completa de humanos.

3. Los sistemas de IA pueden adaptarse después de su implementación.

Según la Ley de IA, un sistema puede mostrar adaptabilidad después de su implementación. El considerando 12 aclara que la “adaptabilidad” se refiere a capacidades de autoaprendizaje, permitiendo que el comportamiento del sistema cambie mientras se utiliza.

4. Los sistemas de IA están diseñados para operar según objetivos.

Las directrices especifican que los objetivos del sistema pueden ser explícitos (es decir, metas claramente establecidas que el desarrollador codifica directamente en el sistema) o implícitos (es decir, metas que no se establecen explícitamente pero que pueden deducirse del comportamiento del sistema).

5. Los sistemas de IA deben ser capaces de inferir salidas.

Este es un elemento clave de la definición de “sistemas de IA”. El considerando 12 establece que la definición tiene como objetivo distinguir los sistemas de IA de los sistemas de software tradicionales más simples. Las directrices aclaran cómo evaluar la capacidad de inferir salidas y qué se considera un sistema de IA capaz de inferir.

En general, la inferencia se relaciona con la capacidad de un sistema de IA para crear (inferir) salidas a partir de la entrada recibida sin estar limitado únicamente por reglas definidas por humanos.

6. Las salidas del sistema de IA deben ser capaces de influir en entornos físicos o virtuales.

La Comisión describe los cuatro tipos de salidas que se mencionan en la definición de un sistema de IA: predicciones, creación de contenido, recomendaciones y decisiones. Especifica que los sistemas de IA pueden generar salidas más matizadas que otros sistemas, utilizando patrones aprendidos durante el entrenamiento.

7. Los sistemas de IA deben poder interactuar con el entorno.

La Comisión aclara que este elemento de la definición implica que los sistemas de IA son activos, no pasivos. La mención de “entornos físicos o virtuales” significa que un sistema de IA puede influir en objetos tangibles, como un brazo robótico, y en configuraciones virtuales, como espacios digitales y flujos de datos.

¿Qué sigue?

Como parte de su evaluación sobre si y cómo la Ley de IA puede aplicarse a sus productos y operaciones, las organizaciones deben evaluar los sistemas de IA que desarrollan y/o utilizan de acuerdo con la definición de sistema de IA en la Ley y las directrices.

Esta evaluación, especialmente en lo que respecta a la capacidad de inferencia de la definición, debe ser realizada por equipos tanto legales como técnicos.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...