Directrices de la Comisión Europea sobre Prácticas de IA Prohibidas

Guías de la Comisión Europea sobre Prácticas Prohibidas de IA según la Ley de Inteligencia Artificial de la UE

En febrero de 2025, la Comisión Europea publicó dos conjuntos de guías para clarificar aspectos clave de la Ley de Inteligencia Artificial de la UE (“Ley de IA”): Guías sobre la definición de un sistema de IA y Guías sobre prácticas de IA prohibidas. Estas directrices están destinadas a proporcionar orientación sobre el conjunto de obligaciones de la Ley de IA que comenzaron a aplicarse el 2 de febrero de 2025. Esto incluye la sección de definiciones de la Ley de IA, obligaciones relacionadas con la alfabetización en IA y prohibiciones sobre ciertas prácticas de IA.

Las guías, que superan las 100 páginas, ofrecen una orientación detallada sobre cómo interpretar y aplicar cada una de las ocho prácticas de IA prohibidas enumeradas en el Artículo 5 de la Ley de IA. El Artículo 5 identifica las prácticas que están prohibidas en relación con los sistemas de IA. Las guías abordan la relación entre los sistemas de IA de alto riesgo (regulados bajo la Ley) y las prácticas prohibidas, explicando que en algunos casos, el uso de un sistema de IA de alto riesgo puede calificar como una práctica prohibida.

Aspectos clave de las guías

Los puntos clave de las directrices incluyen:

  • Publicidad personalizada. El Artículo 5(1)(a) prohíbe “la colocación en el mercado, la puesta en servicio o el uso de un sistema de IA que despliega técnicas subliminales más allá de la conciencia de una persona o técnicas manipulativas o engañosas con el objetivo de distorsionar materialmente el comportamiento de una persona o grupo”. Las guías indican que el uso de IA para personalizar anuncios en función de las preferencias del usuario “no es inherentemente manipulativo”, siempre que no se utilicen técnicas subliminales o manipulativas.
  • Persuasión legal. El Artículo 5(1)(b) prohíbe “la colocación en el mercado, la puesta en servicio o el uso de un sistema de IA que explote vulnerabilidades de una persona natural o un grupo específico”. Para calificar como prácticas prohibidas de IA, tal distorsión debe ir más allá de la “persuasión legal”. Las guías explican que un sistema de IA es probable que involucre “persuasión legal” si opera de manera transparente y cumple con los marcos legales pertinentes.
  • Vulnerabilidad y adicción. El Artículo 5(1)(b) prohíbe la explotación de la vulnerabilidad de una persona o grupo basándose en “edad, discapacidad o una situación socioeconómica específica”. Ejemplos incluyen sistemas de IA que crean recompensas personalizadas para fomentar un uso excesivo.
  • Perfilado y puntuación social. El Artículo 5(1)(c) prohíbe “la evaluación o clasificación de personas naturales o grupos en función de su comportamiento social”. Esto incluye prácticas inaceptables, como el uso de información financiera para determinar la elegibilidad para seguros.
  • Policía predictiva. El Artículo 5(1)(d) prohíbe el uso de sistemas de IA para hacer evaluaciones de riesgo de personas. Las guías aclaran que esta prohibición aplica tanto a las fuerzas del orden como a actores privados que actúan en su nombre.
  • Reconocimiento facial. El Artículo 5(1)(e) prohíbe “la creación de bases de datos de reconocimiento facial a través de la recopilación no dirigida de imágenes”. Esto no se extiende a bases de datos que no se utilizan para el reconocimiento de personas.
  • Reconocimiento de emociones en el lugar de trabajo. El Artículo 5(1)(f) prohíbe el uso de sistemas de IA para inferir emociones de una persona en áreas laborales, sujeto a ciertas excepciones.

Interpretación del ámbito de la Ley de IA

Además de proporcionar orientación sobre cada práctica de IA prohibida, las guías consideran cómo interpretar el ámbito de la Ley de IA y sus excepciones:

  • Definición de “colocación en el mercado”. Las prácticas prohibidas abarcan la “colocación en el mercado, la puesta en servicio o el uso” del sistema de IA para la práctica implicada. Las guías aclaran que “colocación en el mercado” significa poner a disposición un sistema, independientemente del medio de suministro.
  • Exclusiones de investigación y desarrollo. La Ley de IA no se aplica a actividades de investigación, prueba o desarrollo de sistemas de IA antes de su colocación en el mercado. Esto permite a los desarrolladores experimentar con nuevas funcionalidades.
  • Aplicación a sistemas de IA de propósito general. Las prohibiciones del Artículo 5 se aplican tanto a sistemas de IA de propósito general como a sistemas con un propósito específico. Los proveedores deben incorporar salvaguardias para prevenir el uso indebido.

Las directrices son una herramienta crucial para entender las implicaciones de la Ley de IA y el marco regulatorio que impacta el desarrollo y uso de tecnologías de inteligencia artificial en Europa.

More Insights

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...

Guía esencial de la AMA para la adopción y gobernanza de la IA en el sector salud

La AMA ha publicado una guía sobre la adopción y gobernanza de la inteligencia artificial (IA) para sistemas de salud, destacando la importancia de establecer políticas adecuadas en un entorno...

La ONU establece un panel sobre IA y un diálogo global para su gobernanza

La Asamblea General de las Naciones Unidas ha adoptado una resolución para establecer un Panel Científico Internacional Independiente sobre Inteligencia Artificial y un Diálogo Global sobre la...

La próxima ola de amenazas cibernéticas: del envenenamiento de datos a los agentes de IA

A medida que la inteligencia artificial (IA) se adopta rápidamente en diversas industrias, también aumenta la exposición a riesgos cibernéticos. Los modelos de IA generativa están creando nuevas...

Ética y Gobernanza de la IA en el Sudeste Asiático

En este artículo, Nguyen Hoang Minh Ngoc explora el panorama actual de la gobernanza y la ética de la inteligencia artificial (IA) en los seis países del sudeste asiático. Se destaca la necesidad de...