Clarificación de la Definición de Sistemas de IA por la Comisión Europea

Clarificación de la Definición de Sistemas de IA por la Comisión Europea

La Comisión Europea ha publicado directrices que clarifican la definición de sistemas de IA bajo la Ley de IA, analizando cada componente de la definición, proporcionando ejemplos y especificando qué sistemas deben quedar fuera del alcance de esta definición. Aunque no son vinculantes, estas directrices son una herramienta útil para que las empresas evalúen si su funcionamiento se encuentra dentro del ámbito de aplicación de la Ley de IA.

Las directrices han sido aprobadas por la Comisión, pero aún no se han adoptado formalmente.

¿Cómo define la Ley de IA los Sistemas de IA?

El Artículo 3(1) de la Ley de IA define los sistemas de IA como: “sistema de IA significa un sistema basado en máquinas que está diseñado para operar con distintos niveles de autonomía y que puede mostrar adaptabilidad después de su implementación, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.” El considerando 12 de la Ley de IA proporciona orientación interpretativa no vinculante respecto a la definición de un sistema de IA, la cual es respaldada por las directrices de la Comisión Europea.

La Comisión Europea identifica y aclara los siguientes siete componentes de la definición de un sistema de IA bajo la Ley de IA:

1. Los sistemas de IA son sistemas basados en máquinas.

Las directrices aclaran que el término “basado en máquinas” se refiere a la integración de componentes de hardware y software que permiten el funcionamiento de estos sistemas, destacando que deben ser impulsados computacionalmente y basados en operaciones de máquinas.

2. Los sistemas de IA deben tener cierto grado de autonomía.

El considerando 12 de la Ley de IA especifica que los sistemas de IA deben tener “cierto grado de independencia de acciones respecto a la intervención humana y capacidades para operar sin intervención humana”. La Comisión Europea elabora que la noción de un sistema de IA excluye aquellos diseñados para operar únicamente con la intervención manual completa de humanos.

3. Los sistemas de IA pueden adaptarse después de su implementación.

Según la Ley de IA, un sistema puede mostrar adaptabilidad después de su implementación. El considerando 12 aclara que la “adaptabilidad” se refiere a capacidades de autoaprendizaje, permitiendo que el comportamiento del sistema cambie mientras se utiliza.

4. Los sistemas de IA están diseñados para operar según objetivos.

Las directrices especifican que los objetivos del sistema pueden ser explícitos (es decir, metas claramente establecidas que el desarrollador codifica directamente en el sistema) o implícitos (es decir, metas que no se establecen explícitamente pero que pueden deducirse del comportamiento del sistema).

5. Los sistemas de IA deben ser capaces de inferir salidas.

Este es un elemento clave de la definición de “sistemas de IA”. El considerando 12 establece que la definición tiene como objetivo distinguir los sistemas de IA de los sistemas de software tradicionales más simples. Las directrices aclaran cómo evaluar la capacidad de inferir salidas y qué se considera un sistema de IA capaz de inferir.

En general, la inferencia se relaciona con la capacidad de un sistema de IA para crear (inferir) salidas a partir de la entrada recibida sin estar limitado únicamente por reglas definidas por humanos.

6. Las salidas del sistema de IA deben ser capaces de influir en entornos físicos o virtuales.

La Comisión describe los cuatro tipos de salidas que se mencionan en la definición de un sistema de IA: predicciones, creación de contenido, recomendaciones y decisiones. Especifica que los sistemas de IA pueden generar salidas más matizadas que otros sistemas, utilizando patrones aprendidos durante el entrenamiento.

7. Los sistemas de IA deben poder interactuar con el entorno.

La Comisión aclara que este elemento de la definición implica que los sistemas de IA son activos, no pasivos. La mención de “entornos físicos o virtuales” significa que un sistema de IA puede influir en objetos tangibles, como un brazo robótico, y en configuraciones virtuales, como espacios digitales y flujos de datos.

¿Qué sigue?

Como parte de su evaluación sobre si y cómo la Ley de IA puede aplicarse a sus productos y operaciones, las organizaciones deben evaluar los sistemas de IA que desarrollan y/o utilizan de acuerdo con la definición de sistema de IA en la Ley y las directrices.

Esta evaluación, especialmente en lo que respecta a la capacidad de inferencia de la definición, debe ser realizada por equipos tanto legales como técnicos.

More Insights

La Propuesta Oculta que Amenaza la Regulación de la IA en EE.UU.

Mientras gran parte de la atención mediática del Congreso se ha centrado en los recortes propuestos a Medicaid, una disposición significativa, respaldada por los republicanos de la Cámara, busca...

Amenazas a la Regulación de IA en California

Los republicanos de la Cámara quieren prohibir las regulaciones estatales sobre inteligencia artificial durante 10 años, lo que ha alarmado a los líderes de California. Este moratorio amenaza más de...

La Crisis de la Bandera: Gobernanza Digital y AI en Malasia

Los recientes incidentes relacionados con representaciones generadas por IA de la bandera nacional de Malasia resaltan la necesidad de construir capacidades para fomentar la alfabetización en IA...

Prácticas de IA Responsable: Resultados del Estudio Global de Confianza

El rápido crecimiento de la inteligencia artificial generativa y los modelos de lenguaje grandes (LLMs) está impulsando la adopción en diversas funciones empresariales, con el objetivo de aumentar la...

La IA Responsable como Imperativo Empresarial

Los principios filosóficos, los debates políticos y los marcos regulatorios han dominado las discusiones sobre la ética de la IA. Sin embargo, debemos replantear la ética de la IA como una ventaja...

Fracaso del Legislativo de Colorado para Modificar la Ley de Inteligencia Artificial

La Legislatura de Colorado no logró enmendar la reciente Ley de Inteligencia Artificial, que impone estrictos requisitos a los desarrolladores y usuarios de sistemas de IA de "alto riesgo". A pesar de...

Uso de IA en Reclutamiento: Implicaciones para Empresas en la UE y EE. UU.

La inteligencia artificial (IA) está transformando el paisaje de la contratación al hacer que procesos como la revisión de currículos y la interacción con candidatos sean más eficientes. Sin embargo...

Escasez de Fondos en Estados de la UE para Aplicar la Ley de IA

El asesor de políticas de la UE, Kai Zenner, advirtió que muchos estados miembros de la UE enfrentan dificultades financieras y carecen del personal experto necesario para hacer cumplir la Ley de IA...