Guías de la Comisión Europea sobre Prácticas Prohibidas de IA

Publicación de Directrices de la Comisión Europea sobre las Prácticas de IA Prohibidas bajo la Ley de IA

El 28 de abril de 2025, la Comisión Europea presentó un conjunto de directrices que abordan las prácticas de inteligencia artificial (IA) prohibidas según la Ley de IA (Reglamento (UE) 2024/1689). Este documento constituye un paso importante hacia la regulación de la IA en la Unión Europea, buscando proteger los derechos fundamentales y promover la innovación.

Antecedentes

Desde el 2 de febrero de 2025, las disposiciones generales de la Ley de IA han entrado en vigor, así como las reglas sobre prácticas de IA prohibidas. El Artículo 5 de la Ley prohíbe prácticas que podrían comprometer derechos fundamentales, tales como:

  • Técnicas manipulativas o engañosas.
  • Raspado de datos faciales no dirigido.
  • Sistemas explotadores que apuntan a grupos vulnerables.
  • Categorización biométrica y reconocimiento emocional en contextos sensibles.

Directrices sobre Prácticas de IA Prohibidas

La Comisión ha publicado un documento detallado de 135 páginas que define las prácticas de IA inaceptables debido a sus riesgos. El objetivo de este documento es proporcionar a las empresas claridad sobre cómo se interpretan y definen las prácticas de IA prohibidas. Las áreas clave incluyen:

  • Interpretación de las prohibiciones, equilibrando la protección de derechos fundamentales con la innovación.
  • Alcance de la Ley de IA, incluyendo exclusiones relevantes.
  • Alcance material y personal del Artículo 5, abarcando prácticas relacionadas con la comercialización y uso de sistemas de IA.

Prácticas Prohibidas Específicas

Las prácticas prohibidas están claramente delineadas en el Artículo 5(1) de la Ley de IA, y se examinan metódicamente para aclarar su aplicación. Las prohibiciones incluyen:

  1. Manipulación y engaño dañinos: Sistemas que distorsionan el comportamiento causando daño significativo.
  2. Explotación de vulnerabilidades: Aprovechar situaciones vulnerables, como la edad o discapacidad, para distorsionar el comportamiento.
  3. Scoring social: Evaluar individuos basándose en comportamientos sociales, llevando a tratamientos desfavorables.
  4. Evaluación de riesgo de delitos: Predecir delitos basándose exclusivamente en rasgos de personalidad.
  5. Raspado no dirigido para reconocimiento facial: Creación de bases de datos de reconocimiento facial mediante la recolección indiscriminada de imágenes.
  6. Reconocimiento emocional: Inferir emociones en entornos laborales o educativos, salvo por razones médicas o de seguridad.
  7. Categorización biométrica: Clasificar individuos basándose en datos biométricos para inferir atributos personales.
  8. Identificación biométrica remota: Uso de identificación biométrica en espacios públicos para la aplicación de la ley, salvo en circunstancias específicas.

Exclusiones de la Ley de IA

El Artículo 2 de la Ley de IA establece exclusiones generales, como las IA liberadas bajo licencias de código abierto. Sin embargo, esta excepción no se aplica si los sistemas de IA son comercializados como de alto riesgo o están sujetos a las obligaciones de transparencia.

¿Qué sigue?

Las empresas deben evaluar minuciosamente, caso por caso, si una aplicación de IA específica se considera prohibida según el Artículo 5. Tanto los proveedores como los desplegadores tienen responsabilidades distintas basadas en su control sobre el diseño, desarrollo y uso del sistema. La implementación de medidas preventivas y de mitigación es esencial para garantizar el cumplimiento de la Ley de IA.

A pesar de ser directrices no vinculantes, la interpretación y ejemplos proporcionados por la Comisión son herramientas útiles para la evaluación y cumplimiento de la Ley de IA.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...