Guías de la Comisión Europea sobre Prácticas Prohibidas de IA

Publicación de Directrices de la Comisión Europea sobre las Prácticas de IA Prohibidas bajo la Ley de IA

El 28 de abril de 2025, la Comisión Europea presentó un conjunto de directrices que abordan las prácticas de inteligencia artificial (IA) prohibidas según la Ley de IA (Reglamento (UE) 2024/1689). Este documento constituye un paso importante hacia la regulación de la IA en la Unión Europea, buscando proteger los derechos fundamentales y promover la innovación.

Antecedentes

Desde el 2 de febrero de 2025, las disposiciones generales de la Ley de IA han entrado en vigor, así como las reglas sobre prácticas de IA prohibidas. El Artículo 5 de la Ley prohíbe prácticas que podrían comprometer derechos fundamentales, tales como:

  • Técnicas manipulativas o engañosas.
  • Raspado de datos faciales no dirigido.
  • Sistemas explotadores que apuntan a grupos vulnerables.
  • Categorización biométrica y reconocimiento emocional en contextos sensibles.

Directrices sobre Prácticas de IA Prohibidas

La Comisión ha publicado un documento detallado de 135 páginas que define las prácticas de IA inaceptables debido a sus riesgos. El objetivo de este documento es proporcionar a las empresas claridad sobre cómo se interpretan y definen las prácticas de IA prohibidas. Las áreas clave incluyen:

  • Interpretación de las prohibiciones, equilibrando la protección de derechos fundamentales con la innovación.
  • Alcance de la Ley de IA, incluyendo exclusiones relevantes.
  • Alcance material y personal del Artículo 5, abarcando prácticas relacionadas con la comercialización y uso de sistemas de IA.

Prácticas Prohibidas Específicas

Las prácticas prohibidas están claramente delineadas en el Artículo 5(1) de la Ley de IA, y se examinan metódicamente para aclarar su aplicación. Las prohibiciones incluyen:

  1. Manipulación y engaño dañinos: Sistemas que distorsionan el comportamiento causando daño significativo.
  2. Explotación de vulnerabilidades: Aprovechar situaciones vulnerables, como la edad o discapacidad, para distorsionar el comportamiento.
  3. Scoring social: Evaluar individuos basándose en comportamientos sociales, llevando a tratamientos desfavorables.
  4. Evaluación de riesgo de delitos: Predecir delitos basándose exclusivamente en rasgos de personalidad.
  5. Raspado no dirigido para reconocimiento facial: Creación de bases de datos de reconocimiento facial mediante la recolección indiscriminada de imágenes.
  6. Reconocimiento emocional: Inferir emociones en entornos laborales o educativos, salvo por razones médicas o de seguridad.
  7. Categorización biométrica: Clasificar individuos basándose en datos biométricos para inferir atributos personales.
  8. Identificación biométrica remota: Uso de identificación biométrica en espacios públicos para la aplicación de la ley, salvo en circunstancias específicas.

Exclusiones de la Ley de IA

El Artículo 2 de la Ley de IA establece exclusiones generales, como las IA liberadas bajo licencias de código abierto. Sin embargo, esta excepción no se aplica si los sistemas de IA son comercializados como de alto riesgo o están sujetos a las obligaciones de transparencia.

¿Qué sigue?

Las empresas deben evaluar minuciosamente, caso por caso, si una aplicación de IA específica se considera prohibida según el Artículo 5. Tanto los proveedores como los desplegadores tienen responsabilidades distintas basadas en su control sobre el diseño, desarrollo y uso del sistema. La implementación de medidas preventivas y de mitigación es esencial para garantizar el cumplimiento de la Ley de IA.

A pesar de ser directrices no vinculantes, la interpretación y ejemplos proporcionados por la Comisión son herramientas útiles para la evaluación y cumplimiento de la Ley de IA.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...