Guías de la Comisión Europea sobre Prácticas de IA Prohibidas

Directrices de la Comisión Europea sobre Prácticas de IA Prohibidas bajo la Ley de Inteligencia Artificial de la UE

En febrero de 2025, la Comisión Europea publicó dos conjuntos de directrices para aclarar aspectos clave de la Ley de Inteligencia Artificial de la UE («Ley de IA»): las Directrices sobre la definición de un sistema de IA y las Directrices sobre prácticas de IA prohibidas. Estas directrices están destinadas a proporcionar orientación sobre el conjunto de obligaciones de la Ley de IA que comenzaron a aplicarse el 2 de febrero de 2025, que incluye la sección de definiciones de la Ley de IA, obligaciones relacionadas con la alfabetización en IA y prohibiciones sobre ciertas prácticas de IA.

Este artículo resume los puntos clave de las directrices de la Comisión sobre prácticas de IA prohibidas. Las directrices son extensas y proporcionan una orientación detallada sobre cómo interpretar y aplicar cada una de las ocho prácticas de IA prohibidas enumeradas en el Artículo 5 de la Ley de IA.

Prácticas de IA Prohibidas

El Artículo 5 identifica prácticas que están prohibidas en relación con los sistemas de IA. A continuación se presentan los aspectos más destacados de las prácticas prohibidas:

  • Anuncios personalizados: El Artículo 5(1)(a) prohíbe el uso de un sistema de IA que despliegue técnicas subliminales o manipulativas. Las directrices indican que la personalización de anuncios basada en preferencias del usuario no es inherentemente manipulativa, siempre que no utilice técnicas que subviertan la autonomía individual (párrafo 133).
  • Persuasión legal: El Artículo 5(1)(b) prohíbe la explotación de vulnerabilidades de una persona. Las directrices explican que una distorsión del comportamiento más allá de la persuasión legal califica como práctica prohibida (párrafo 78).
  • Vulnerabilidad y adicción: Se prohíbe la explotación de vulnerabilidades basadas en la edad o situación socioeconómica (párrafo 101). Ejemplos incluyen sistemas de IA que crean recompensas personalizadas para fomentar el uso excesivo (párrafo 105).
  • Perfilado y puntuación social: El Artículo 5(1)(c) prohíbe el uso de sistemas de IA para evaluar o clasificar a personas basándose en comportamientos sociales. Por ejemplo, un sistema de IA que utiliza información financiera para determinar la elegibilidad para seguros podría considerarse una práctica de puntuación social inaceptable (párrafo 170).
  • Policía predictiva: El Artículo 5(1)(d) prohíbe el uso de sistemas de IA para hacer evaluaciones de riesgo de personas basándose en perfiles, aplicable también a actores privados que actúan en nombre de la ley (párrafo 213).
  • Raspado de imágenes faciales: El Artículo 5(1)(e) prohíbe la creación de bases de datos de reconocimiento facial a través del raspado no dirigido de imágenes (párrafo 234).
  • Reconocimiento de emociones en el trabajo: El Artículo 5(1)(f) prohíbe el uso de sistemas de IA para inferir emociones en el lugar de trabajo (párrafo 254).

Interpretación y Alcance de la Ley de IA

Las directrices también consideran cómo interpretar el alcance de la Ley de IA y sus excepciones:

  • Definición de «colocación en el mercado»: El término se refiere a la disponibilidad de un sistema, independientemente del medio de suministro (párrafo 12).
  • Exclusiones de investigación y desarrollo: La Ley de IA no se aplica a actividades de investigación previas a la colocación en el mercado de un sistema de IA (párrafo 30).
  • Aplicación a sistemas de IA de propósito general: Las prohibiciones del Artículo 5 se aplican tanto a sistemas de IA de propósito general como a sistemas con un propósito específico (párrafo 40).

Las directrices proporcionan un marco valioso para entender las obligaciones y limitaciones impuestas por la Ley de IA, asegurando que las prácticas de IA se alineen con los principios éticos y de protección del usuario.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...