Guía de la Comisión Europea sobre Prácticas de IA Prohibidas

Las Directrices de la Comisión de la UE sobre prácticas de IA prohibidas bajo la Ley de IA – Parte Uno

El 4 de febrero de 2025, la Comisión Europea (CE) emitió directrices sobre prácticas de inteligencia artificial (IA) prohibidas establecidas por la Ley de IA de la UE. Estas directrices, que actualmente no son vinculantes, proporcionan claridad sobre las prácticas de IA prohibidas que representan un riesgo para los valores y derechos fundamentales de la Unión Europea, como la seguridad pública, el derecho a la privacidad y el derecho a la no discriminación.

Contexto

El objetivo de esta serie de informes de dos partes es ayudar a los profesionales de la privacidad y otros operadores de sistemas de IA a comprender las implicaciones de las directrices. La primera parte se centra en los primeros cuatro casos de uso bajo el Artículo 5(1)(a) al 5(1)(d). La segunda parte abordará el resto de las directrices sobre casos de uso prohibidos bajo el Artículo 5(1)(e) al 5(1)(h), además de otros aspectos clave.

Período interino – Ejecución

Las disposiciones relacionadas con los sistemas de IA prohibidos entraron en vigor el 2 de febrero de 2025, con sanciones aplicables a partir del 2 de agosto de 2025, dejando un período interino de seis meses en relación con la ejecución. Durante este período, a pesar de que las autoridades de vigilancia del mercado doméstico aún no están identificadas, las disposiciones sobre sistemas de IA prohibidos son obligatorias.

Prácticas de IA prohibidas

El Artículo 5 de la Ley de IA contiene la lista de casos de uso de IA que están expresamente prohibidos. A continuación se presentan los casos de uso, el contexto y la justificación detrás de la prohibición, así como las excepciones permisibles y ejemplos de casos de uso que quedan fuera del alcance. Las directrices desglosan cada componente de los subartículos del Artículo 5 en un conjunto de condiciones acumulativas, todas las cuales deben cumplirse para que la prohibición se aplique.

Manipulación y engaño – Artículo 5(1)(a)

El Artículo 5(1)(a) contiene una prohibición sobre la IA que utiliza técnicas subliminales o estrategias manipulativas para distorsionar significativamente el comportamiento de los individuos, alterando su capacidad de decisión de una manera que es razonablemente probable que cause daño significativo.

Uso del Artículo 5: Manipulación y engaño
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. Se prohíbe el despliegue de técnicas subliminales (más allá de la conciencia de la persona), manipulativas o engañosas con el objetivo o efecto de distorsionar materialmente el comportamiento de una persona o un grupo de personas.

Explotación perjudicial de vulnerabilidades – Artículo 5(1)(b)

El Artículo 5(1)(b) prohíbe el uso de IA para explotar vulnerabilidades relacionadas con la edad, discapacidad o condiciones socioeconómicas, con el objetivo o efecto de distorsionar materialmente el comportamiento de esa persona de una manera que cause o sea razonablemente probable que cause daño.

Uso del Artículo 5: Explotación perjudicial de vulnerabilidades
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. El sistema de IA debe explotar vulnerabilidades debido a la edad, discapacidad o situaciones socioeconómicas, y la explotación habilitada por el sistema de IA debe tener el objetivo, o el efecto de distorsionar materialmente el comportamiento.

Categorización social – Artículo 5(1)(c)

El Artículo 5(1)(c) prohíbe el uso de IA para categorizar individuos basados en su comportamiento social, personal o profesional, o características personales, cuando esto resulta en un trato injustificado o perjudicial.

Uso del Artículo 5: Categorización social
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, la ‘puesta en servicio’ o el ‘uso’ de un sistema de IA. El sistema de IA debe tener la intención o ser utilizado para la evaluación o clasificación de personas naturales o grupos de personas, basado en su comportamiento social o características personales.

Predicción de delitos – Artículo 5(1)(d)

El Artículo 5(1)(d) prohíbe sistemas de IA que evalúan la probabilidad de cometer delitos, basándose únicamente en perfiles automatizados o características personales.

Uso del Artículo 5: Predicción de delitos
(Condiciones acumulativas, todas las cuales deben cumplirse para que se aplique la prohibición)

La práctica debe constituir la ‘colocación en el mercado’, ‘la puesta en servicio para este propósito específico’ o el ‘uso’ de un sistema de IA. El sistema de IA debe realizar evaluaciones de riesgo que evalúen o predigan el riesgo de que una persona natural cometa un delito.

Recordatorio de la cronología de implementación de la Ley de IA

Para agosto de 2025
– Obligaciones que entran en vigor para los proveedores de modelos de IA de propósito general.
– Designación de autoridades nacionales de supervisión.
– Los Estados miembros deben implementar reglas sobre sanciones y otras medidas de ejecución.

Para agosto de 2026
– Inicio de las obligaciones de cumplimiento para sistemas de IA de alto riesgo.

Para agosto de 2027
– Entrada en vigor de las obligaciones de cumplimiento para sistemas de IA de alto riesgo cubiertos por el Artículo 6(1).

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...