Guía de la Comisión Europea sobre Prácticas de IA Prohibidas

Las Directrices de la Comisión de la UE sobre prácticas de IA prohibidas bajo la Ley de IA – Parte Uno

El 4 de febrero de 2025, la Comisión Europea (CE) emitió directrices sobre prácticas de inteligencia artificial (IA) prohibidas establecidas por la Ley de IA de la UE. Estas directrices, que actualmente no son vinculantes, proporcionan claridad sobre las prácticas de IA prohibidas que representan un riesgo para los valores y derechos fundamentales de la Unión Europea, como la seguridad pública, el derecho a la privacidad y el derecho a la no discriminación.

Contexto

El objetivo de esta serie de informes de dos partes es ayudar a los profesionales de la privacidad y otros operadores de sistemas de IA a comprender las implicaciones de las directrices. La primera parte se centra en los primeros cuatro casos de uso bajo el Artículo 5(1)(a) al 5(1)(d). La segunda parte abordará el resto de las directrices sobre casos de uso prohibidos bajo el Artículo 5(1)(e) al 5(1)(h), además de otros aspectos clave.

Período interino – Ejecución

Las disposiciones relacionadas con los sistemas de IA prohibidos entraron en vigor el 2 de febrero de 2025, con sanciones aplicables a partir del 2 de agosto de 2025, dejando un período interino de seis meses en relación con la ejecución. Durante este período, a pesar de que las autoridades de vigilancia del mercado doméstico aún no están identificadas, las disposiciones sobre sistemas de IA prohibidos son obligatorias.

Prácticas de IA prohibidas

El Artículo 5 de la Ley de IA contiene la lista de casos de uso de IA que están expresamente prohibidos. A continuación se presentan los casos de uso, el contexto y la justificación detrás de la prohibición, así como las excepciones permisibles y ejemplos de casos de uso que quedan fuera del alcance. Las directrices desglosan cada componente de los subartículos del Artículo 5 en un conjunto de condiciones acumulativas, todas las cuales deben cumplirse para que la prohibición se aplique.

Manipulación y engaño – Artículo 5(1)(a)

El Artículo 5(1)(a) contiene una prohibición sobre la IA que utiliza técnicas subliminales o estrategias manipulativas para distorsionar significativamente el comportamiento de los individuos, alterando su capacidad de decisión de una manera que es razonablemente probable que cause daño significativo.

Uso del Artículo 5: Manipulación y engaño
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. Se prohíbe el despliegue de técnicas subliminales (más allá de la conciencia de la persona), manipulativas o engañosas con el objetivo o efecto de distorsionar materialmente el comportamiento de una persona o un grupo de personas.

Explotación perjudicial de vulnerabilidades – Artículo 5(1)(b)

El Artículo 5(1)(b) prohíbe el uso de IA para explotar vulnerabilidades relacionadas con la edad, discapacidad o condiciones socioeconómicas, con el objetivo o efecto de distorsionar materialmente el comportamiento de esa persona de una manera que cause o sea razonablemente probable que cause daño.

Uso del Artículo 5: Explotación perjudicial de vulnerabilidades
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. El sistema de IA debe explotar vulnerabilidades debido a la edad, discapacidad o situaciones socioeconómicas, y la explotación habilitada por el sistema de IA debe tener el objetivo, o el efecto de distorsionar materialmente el comportamiento.

Categorización social – Artículo 5(1)(c)

El Artículo 5(1)(c) prohíbe el uso de IA para categorizar individuos basados en su comportamiento social, personal o profesional, o características personales, cuando esto resulta en un trato injustificado o perjudicial.

Uso del Artículo 5: Categorización social
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. El sistema de IA debe tener la intención o ser utilizado para la evaluación o clasificación de personas naturales o grupos de personas, basado en su comportamiento social o características personales.

Predicción de delitos – Artículo 5(1)(d)

El Artículo 5(1)(d) prohíbe sistemas de IA que evalúan la probabilidad de cometer delitos, basándose únicamente en perfiles automatizados o características personales.

Uso del Artículo 5: Predicción de delitos
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, ‘la puesta en servicio para este propósito específico’ o el ‘uso’ de un sistema de IA. El sistema de IA debe realizar evaluaciones de riesgo que evalúen o predigan el riesgo de que una persona natural cometa un delito.

Recordatorio de la cronología de implementación de la Ley de IA

Para agosto de 2025
– Obligaciones que entran en vigor para los proveedores de modelos de IA de propósito general.
– Designación de autoridades nacionales de supervisión.
– Los Estados miembros deben implementar reglas sobre sanciones y otras medidas de ejecución.

Para agosto de 2026
– Inicio de las obligaciones de cumplimiento para sistemas de IA de alto riesgo.

Para agosto de 2027
– Entrada en vigor de las obligaciones de cumplimiento para sistemas de IA de alto riesgo cubiertos por el Artículo 6(1).

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...