Directrices de la Comisión Europea sobre Prácticas de IA Prohibidas

Guías de la Comisión Europea sobre Prácticas Prohibidas de IA según la Ley de Inteligencia Artificial de la UE

En febrero de 2025, la Comisión Europea publicó dos conjuntos de guías para clarificar aspectos clave de la Ley de Inteligencia Artificial de la UE (“Ley de IA”): Guías sobre la definición de un sistema de IA y Guías sobre prácticas de IA prohibidas. Estas directrices están destinadas a proporcionar orientación sobre el conjunto de obligaciones de la Ley de IA que comenzaron a aplicarse el 2 de febrero de 2025. Esto incluye la sección de definiciones de la Ley de IA, obligaciones relacionadas con la alfabetización en IA y prohibiciones sobre ciertas prácticas de IA.

Las guías, que superan las 100 páginas, ofrecen una orientación detallada sobre cómo interpretar y aplicar cada una de las ocho prácticas de IA prohibidas enumeradas en el Artículo 5 de la Ley de IA. El Artículo 5 identifica las prácticas que están prohibidas en relación con los sistemas de IA. Las guías abordan la relación entre los sistemas de IA de alto riesgo (regulados bajo la Ley) y las prácticas prohibidas, explicando que en algunos casos, el uso de un sistema de IA de alto riesgo puede calificar como una práctica prohibida.

Aspectos clave de las guías

Los puntos clave de las directrices incluyen:

  • Publicidad personalizada. El Artículo 5(1)(a) prohíbe “la colocación en el mercado, la puesta en servicio o el uso de un sistema de IA que despliega técnicas subliminales más allá de la conciencia de una persona o técnicas manipulativas o engañosas con el objetivo de distorsionar materialmente el comportamiento de una persona o grupo”. Las guías indican que el uso de IA para personalizar anuncios en función de las preferencias del usuario “no es inherentemente manipulativo”, siempre que no se utilicen técnicas subliminales o manipulativas.
  • Persuasión legal. El Artículo 5(1)(b) prohíbe “la colocación en el mercado, la puesta en servicio o el uso de un sistema de IA que explote vulnerabilidades de una persona natural o un grupo específico”. Para calificar como prácticas prohibidas de IA, tal distorsión debe ir más allá de la “persuasión legal”. Las guías explican que un sistema de IA es probable que involucre “persuasión legal” si opera de manera transparente y cumple con los marcos legales pertinentes.
  • Vulnerabilidad y adicción. El Artículo 5(1)(b) prohíbe la explotación de la vulnerabilidad de una persona o grupo basándose en “edad, discapacidad o una situación socioeconómica específica”. Ejemplos incluyen sistemas de IA que crean recompensas personalizadas para fomentar un uso excesivo.
  • Perfilado y puntuación social. El Artículo 5(1)(c) prohíbe “la evaluación o clasificación de personas naturales o grupos en función de su comportamiento social”. Esto incluye prácticas inaceptables, como el uso de información financiera para determinar la elegibilidad para seguros.
  • Policía predictiva. El Artículo 5(1)(d) prohíbe el uso de sistemas de IA para hacer evaluaciones de riesgo de personas. Las guías aclaran que esta prohibición aplica tanto a las fuerzas del orden como a actores privados que actúan en su nombre.
  • Reconocimiento facial. El Artículo 5(1)(e) prohíbe “la creación de bases de datos de reconocimiento facial a través de la recopilación no dirigida de imágenes”. Esto no se extiende a bases de datos que no se utilizan para el reconocimiento de personas.
  • Reconocimiento de emociones en el lugar de trabajo. El Artículo 5(1)(f) prohíbe el uso de sistemas de IA para inferir emociones de una persona en áreas laborales, sujeto a ciertas excepciones.

Interpretación del ámbito de la Ley de IA

Además de proporcionar orientación sobre cada práctica de IA prohibida, las guías consideran cómo interpretar el ámbito de la Ley de IA y sus excepciones:

  • Definición de “colocación en el mercado”. Las prácticas prohibidas abarcan la “colocación en el mercado, la puesta en servicio o el uso” del sistema de IA para la práctica implicada. Las guías aclaran que “colocación en el mercado” significa poner a disposición un sistema, independientemente del medio de suministro.
  • Exclusiones de investigación y desarrollo. La Ley de IA no se aplica a actividades de investigación, prueba o desarrollo de sistemas de IA antes de su colocación en el mercado. Esto permite a los desarrolladores experimentar con nuevas funcionalidades.
  • Aplicación a sistemas de IA de propósito general. Las prohibiciones del Artículo 5 se aplican tanto a sistemas de IA de propósito general como a sistemas con un propósito específico. Los proveedores deben incorporar salvaguardias para prevenir el uso indebido.

Las directrices son una herramienta crucial para entender las implicaciones de la Ley de IA y el marco regulatorio que impacta el desarrollo y uso de tecnologías de inteligencia artificial en Europa.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...