Guía de la Comisión Europea sobre Prácticas de IA Prohibidas

Las Directrices de la Comisión de la UE sobre prácticas de IA prohibidas bajo la Ley de IA – Parte Uno

El 4 de febrero de 2025, la Comisión Europea (CE) emitió directrices sobre prácticas de inteligencia artificial (IA) prohibidas establecidas por la Ley de IA de la UE. Estas directrices, que actualmente no son vinculantes, proporcionan claridad sobre las prácticas de IA prohibidas que representan un riesgo para los valores y derechos fundamentales de la Unión Europea, como la seguridad pública, el derecho a la privacidad y el derecho a la no discriminación.

Contexto

El objetivo de esta serie de informes de dos partes es ayudar a los profesionales de la privacidad y otros operadores de sistemas de IA a comprender las implicaciones de las directrices. La primera parte se centra en los primeros cuatro casos de uso bajo el Artículo 5(1)(a) al 5(1)(d). La segunda parte abordará el resto de las directrices sobre casos de uso prohibidos bajo el Artículo 5(1)(e) al 5(1)(h), además de otros aspectos clave.

Período interino – Ejecución

Las disposiciones relacionadas con los sistemas de IA prohibidos entraron en vigor el 2 de febrero de 2025, con sanciones aplicables a partir del 2 de agosto de 2025, dejando un período interino de seis meses en relación con la ejecución. Durante este período, a pesar de que las autoridades de vigilancia del mercado doméstico aún no están identificadas, las disposiciones sobre sistemas de IA prohibidos son obligatorias.

Prácticas de IA prohibidas

El Artículo 5 de la Ley de IA contiene la lista de casos de uso de IA que están expresamente prohibidos. A continuación se presentan los casos de uso, el contexto y la justificación detrás de la prohibición, así como las excepciones permisibles y ejemplos de casos de uso que quedan fuera del alcance. Las directrices desglosan cada componente de los subartículos del Artículo 5 en un conjunto de condiciones acumulativas, todas las cuales deben cumplirse para que la prohibición se aplique.

Manipulación y engaño – Artículo 5(1)(a)

El Artículo 5(1)(a) contiene una prohibición sobre la IA que utiliza técnicas subliminales o estrategias manipulativas para distorsionar significativamente el comportamiento de los individuos, alterando su capacidad de decisión de una manera que es razonablemente probable que cause daño significativo.

Uso del Artículo 5: Manipulación y engaño
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. Se prohíbe el despliegue de técnicas subliminales (más allá de la conciencia de la persona), manipulativas o engañosas con el objetivo o efecto de distorsionar materialmente el comportamiento de una persona o un grupo de personas.

Explotación perjudicial de vulnerabilidades – Artículo 5(1)(b)

El Artículo 5(1)(b) prohíbe el uso de IA para explotar vulnerabilidades relacionadas con la edad, discapacidad o condiciones socioeconómicas, con el objetivo o efecto de distorsionar materialmente el comportamiento de esa persona de una manera que cause o sea razonablemente probable que cause daño.

Uso del Artículo 5: Explotación perjudicial de vulnerabilidades
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. El sistema de IA debe explotar vulnerabilidades debido a la edad, discapacidad o situaciones socioeconómicas, y la explotación habilitada por el sistema de IA debe tener el objetivo, o el efecto de distorsionar materialmente el comportamiento.

Categorización social – Artículo 5(1)(c)

El Artículo 5(1)(c) prohíbe el uso de IA para categorizar individuos basados en su comportamiento social, personal o profesional, o características personales, cuando esto resulta en un trato injustificado o perjudicial.

Uso del Artículo 5: Categorización social
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. El sistema de IA debe tener la intención o ser utilizado para la evaluación o clasificación de personas naturales o grupos de personas, basado en su comportamiento social o características personales.

Predicción de delitos – Artículo 5(1)(d)

El Artículo 5(1)(d) prohíbe sistemas de IA que evalúan la probabilidad de cometer delitos, basándose únicamente en perfiles automatizados o características personales.

Uso del Artículo 5: Predicción de delitos
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, ‘la puesta en servicio para este propósito específico’ o el ‘uso’ de un sistema de IA. El sistema de IA debe realizar evaluaciones de riesgo que evalúen o predigan el riesgo de que una persona natural cometa un delito.

Recordatorio de la cronología de implementación de la Ley de IA

Para agosto de 2025
– Obligaciones que entran en vigor para los proveedores de modelos de IA de propósito general.
– Designación de autoridades nacionales de supervisión.
– Los Estados miembros deben implementar reglas sobre sanciones y otras medidas de ejecución.

Para agosto de 2026
– Inicio de las obligaciones de cumplimiento para sistemas de IA de alto riesgo.

Para agosto de 2027
– Entrada en vigor de las obligaciones de cumplimiento para sistemas de IA de alto riesgo cubiertos por el Artículo 6(1).

More Insights

Flujos de trabajo de IA responsable para la investigación en UX

La investigación de UX solo es tan sólida como las decisiones humanas que la guían, y los sesgos cognitivos pueden distorsionar los hallazgos. Este artículo explora cómo integrar la inteligencia...

La Revolución de la IA Agente en la Banca

La IA agentiva está revolucionando el sector bancario al automatizar procesos complejos y mejorar la experiencia del cliente. A pesar de sus ventajas, presenta desafíos significativos en términos de...

Cumpliendo con la Regulación: La Clave de la Infraestructura Cripto Escalable

El crecimiento explosivo de la industria de las criptomonedas ha traído consigo una serie de desafíos regulatorios, especialmente en operaciones transfronterizas. La clave para asegurar las carteras...

Camino hacia la Gobernanza de IA en ASEAN: Avances y Desafíos

La Asociación de Naciones del Sudeste Asiático (ASEAN) ha adoptado un enfoque favorable a la innovación en inteligencia artificial (IA) para avanzar hacia una economía digital. Sin embargo, los...

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...