Clarificación de la Definición de Sistemas de IA por la Comisión Europea

Clarificación de la Definición de Sistemas de IA por la Comisión Europea

La Comisión Europea ha publicado directrices que clarifican la definición de sistemas de IA bajo la Ley de IA, analizando cada componente de la definición, proporcionando ejemplos y especificando qué sistemas deben quedar fuera del alcance de esta definición. Aunque no son vinculantes, estas directrices son una herramienta útil para que las empresas evalúen si su funcionamiento se encuentra dentro del ámbito de aplicación de la Ley de IA.

Las directrices han sido aprobadas por la Comisión, pero aún no se han adoptado formalmente.

¿Cómo define la Ley de IA los Sistemas de IA?

El Artículo 3(1) de la Ley de IA define los sistemas de IA como: “sistema de IA significa un sistema basado en máquinas que está diseñado para operar con distintos niveles de autonomía y que puede mostrar adaptabilidad después de su implementación, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.” El considerando 12 de la Ley de IA proporciona orientación interpretativa no vinculante respecto a la definición de un sistema de IA, la cual es respaldada por las directrices de la Comisión Europea.

La Comisión Europea identifica y aclara los siguientes siete componentes de la definición de un sistema de IA bajo la Ley de IA:

1. Los sistemas de IA son sistemas basados en máquinas.

Las directrices aclaran que el término “basado en máquinas” se refiere a la integración de componentes de hardware y software que permiten el funcionamiento de estos sistemas, destacando que deben ser impulsados computacionalmente y basados en operaciones de máquinas.

2. Los sistemas de IA deben tener cierto grado de autonomía.

El considerando 12 de la Ley de IA especifica que los sistemas de IA deben tener “cierto grado de independencia de acciones respecto a la intervención humana y capacidades para operar sin intervención humana”. La Comisión Europea elabora que la noción de un sistema de IA excluye aquellos diseñados para operar únicamente con la intervención manual completa de humanos.

3. Los sistemas de IA pueden adaptarse después de su implementación.

Según la Ley de IA, un sistema puede mostrar adaptabilidad después de su implementación. El considerando 12 aclara que la “adaptabilidad” se refiere a capacidades de autoaprendizaje, permitiendo que el comportamiento del sistema cambie mientras se utiliza.

4. Los sistemas de IA están diseñados para operar según objetivos.

Las directrices especifican que los objetivos del sistema pueden ser explícitos (es decir, metas claramente establecidas que el desarrollador codifica directamente en el sistema) o implícitos (es decir, metas que no se establecen explícitamente pero que pueden deducirse del comportamiento del sistema).

5. Los sistemas de IA deben ser capaces de inferir salidas.

Este es un elemento clave de la definición de “sistemas de IA”. El considerando 12 establece que la definición tiene como objetivo distinguir los sistemas de IA de los sistemas de software tradicionales más simples. Las directrices aclaran cómo evaluar la capacidad de inferir salidas y qué se considera un sistema de IA capaz de inferir.

En general, la inferencia se relaciona con la capacidad de un sistema de IA para crear (inferir) salidas a partir de la entrada recibida sin estar limitado únicamente por reglas definidas por humanos.

6. Las salidas del sistema de IA deben ser capaces de influir en entornos físicos o virtuales.

La Comisión describe los cuatro tipos de salidas que se mencionan en la definición de un sistema de IA: predicciones, creación de contenido, recomendaciones y decisiones. Especifica que los sistemas de IA pueden generar salidas más matizadas que otros sistemas, utilizando patrones aprendidos durante el entrenamiento.

7. Los sistemas de IA deben poder interactuar con el entorno.

La Comisión aclara que este elemento de la definición implica que los sistemas de IA son activos, no pasivos. La mención de “entornos físicos o virtuales” significa que un sistema de IA puede influir en objetos tangibles, como un brazo robótico, y en configuraciones virtuales, como espacios digitales y flujos de datos.

¿Qué sigue?

Como parte de su evaluación sobre si y cómo la Ley de IA puede aplicarse a sus productos y operaciones, las organizaciones deben evaluar los sistemas de IA que desarrollan y/o utilizan de acuerdo con la definición de sistema de IA en la Ley y las directrices.

Esta evaluación, especialmente en lo que respecta a la capacidad de inferencia de la definición, debe ser realizada por equipos tanto legales como técnicos.

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...