Las Directrices de la Comisión de la UE sobre prácticas de IA prohibidas bajo la Ley de IA – Parte Uno
El 4 de febrero de 2025, la Comisión Europea (CE) emitió directrices sobre prácticas de inteligencia artificial (IA) prohibidas establecidas por la Ley de IA de la UE. Estas directrices, que actualmente no son vinculantes, proporcionan claridad sobre las prácticas de IA prohibidas que representan un riesgo para los valores y derechos fundamentales de la Unión Europea, como la seguridad pública, el derecho a la privacidad y el derecho a la no discriminación.
Contexto
El objetivo de esta serie de informes de dos partes es ayudar a los profesionales de la privacidad y otros operadores de sistemas de IA a comprender las implicaciones de las directrices. La primera parte se centra en los primeros cuatro casos de uso bajo el Artículo 5(1)(a) al 5(1)(d). La segunda parte abordará el resto de las directrices sobre casos de uso prohibidos bajo el Artículo 5(1)(e) al 5(1)(h), además de otros aspectos clave.
Período interino – Ejecución
Las disposiciones relacionadas con los sistemas de IA prohibidos entraron en vigor el 2 de febrero de 2025, con sanciones aplicables a partir del 2 de agosto de 2025, dejando un período interino de seis meses en relación con la ejecución. Durante este período, a pesar de que las autoridades de vigilancia del mercado doméstico aún no están identificadas, las disposiciones sobre sistemas de IA prohibidos son obligatorias.
Prácticas de IA prohibidas
El Artículo 5 de la Ley de IA contiene la lista de casos de uso de IA que están expresamente prohibidos. A continuación se presentan los casos de uso, el contexto y la justificación detrás de la prohibición, así como las excepciones permisibles y ejemplos de casos de uso que quedan fuera del alcance. Las directrices desglosan cada componente de los subartículos del Artículo 5 en un conjunto de condiciones acumulativas, todas las cuales deben cumplirse para que la prohibición se aplique.
Manipulación y engaño – Artículo 5(1)(a)
El Artículo 5(1)(a) contiene una prohibición sobre la IA que utiliza técnicas subliminales o estrategias manipulativas para distorsionar significativamente el comportamiento de los individuos, alterando su capacidad de decisión de una manera que es razonablemente probable que cause daño significativo.
Uso del Artículo 5: Manipulación y engaño
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)
La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. Se prohíbe el despliegue de técnicas subliminales (más allá de la conciencia de la persona), manipulativas o engañosas con el objetivo o efecto de distorsionar materialmente el comportamiento de una persona o un grupo de personas.
Explotación perjudicial de vulnerabilidades – Artículo 5(1)(b)
El Artículo 5(1)(b) prohíbe el uso de IA para explotar vulnerabilidades relacionadas con la edad, discapacidad o condiciones socioeconómicas, con el objetivo o efecto de distorsionar materialmente el comportamiento de esa persona de una manera que cause o sea razonablemente probable que cause daño.
Uso del Artículo 5: Explotación perjudicial de vulnerabilidades
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)
La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. El sistema de IA debe explotar vulnerabilidades debido a la edad, discapacidad o situaciones socioeconómicas, y la explotación habilitada por el sistema de IA debe tener el objetivo, o el efecto de distorsionar materialmente el comportamiento.
Categorización social – Artículo 5(1)(c)
El Artículo 5(1)(c) prohíbe el uso de IA para categorizar individuos basados en su comportamiento social, personal o profesional, o características personales, cuando esto resulta en un trato injustificado o perjudicial.
Uso del Artículo 5: Categorización social
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)
La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. El sistema de IA debe tener la intención o ser utilizado para la evaluación o clasificación de personas naturales o grupos de personas, basado en su comportamiento social o características personales.
Predicción de delitos – Artículo 5(1)(d)
El Artículo 5(1)(d) prohíbe sistemas de IA que evalúan la probabilidad de cometer delitos, basándose únicamente en perfiles automatizados o características personales.
Uso del Artículo 5: Predicción de delitos
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)
La práctica debe constituir la ‘colocación en el mercado’, ‘la puesta en servicio para este propósito específico’ o el ‘uso’ de un sistema de IA. El sistema de IA debe realizar evaluaciones de riesgo que evalúen o predigan el riesgo de que una persona natural cometa un delito.
Recordatorio de la cronología de implementación de la Ley de IA
Para agosto de 2025
– Obligaciones que entran en vigor para los proveedores de modelos de IA de propósito general.
– Designación de autoridades nacionales de supervisión.
– Los Estados miembros deben implementar reglas sobre sanciones y otras medidas de ejecución.
Para agosto de 2026
– Inicio de las obligaciones de cumplimiento para sistemas de IA de alto riesgo.
Para agosto de 2027
– Entrada en vigor de las obligaciones de cumplimiento para sistemas de IA de alto riesgo cubiertos por el Artículo 6(1).