Guías de la Comisión Europea sobre Prácticas Prohibidas de IA

Publicación de Directrices de la Comisión Europea sobre las Prácticas de IA Prohibidas bajo la Ley de IA

El 28 de abril de 2025, la Comisión Europea presentó un conjunto de directrices que abordan las prácticas de inteligencia artificial (IA) prohibidas según la Ley de IA (Reglamento (UE) 2024/1689). Este documento constituye un paso importante hacia la regulación de la IA en la Unión Europea, buscando proteger los derechos fundamentales y promover la innovación.

Antecedentes

Desde el 2 de febrero de 2025, las disposiciones generales de la Ley de IA han entrado en vigor, así como las reglas sobre prácticas de IA prohibidas. El Artículo 5 de la Ley prohíbe prácticas que podrían comprometer derechos fundamentales, tales como:

  • Técnicas manipulativas o engañosas.
  • Raspado de datos faciales no dirigido.
  • Sistemas explotadores que apuntan a grupos vulnerables.
  • Categorización biométrica y reconocimiento emocional en contextos sensibles.

Directrices sobre Prácticas de IA Prohibidas

La Comisión ha publicado un documento detallado de 135 páginas que define las prácticas de IA inaceptables debido a sus riesgos. El objetivo de este documento es proporcionar a las empresas claridad sobre cómo se interpretan y definen las prácticas de IA prohibidas. Las áreas clave incluyen:

  • Interpretación de las prohibiciones, equilibrando la protección de derechos fundamentales con la innovación.
  • Alcance de la Ley de IA, incluyendo exclusiones relevantes.
  • Alcance material y personal del Artículo 5, abarcando prácticas relacionadas con la comercialización y uso de sistemas de IA.

Prácticas Prohibidas Específicas

Las prácticas prohibidas están claramente delineadas en el Artículo 5(1) de la Ley de IA, y se examinan metódicamente para aclarar su aplicación. Las prohibiciones incluyen:

  1. Manipulación y engaño dañinos: Sistemas que distorsionan el comportamiento causando daño significativo.
  2. Explotación de vulnerabilidades: Aprovechar situaciones vulnerables, como la edad o discapacidad, para distorsionar el comportamiento.
  3. Scoring social: Evaluar individuos basándose en comportamientos sociales, llevando a tratamientos desfavorables.
  4. Evaluación de riesgo de delitos: Predecir delitos basándose exclusivamente en rasgos de personalidad.
  5. Raspado no dirigido para reconocimiento facial: Creación de bases de datos de reconocimiento facial mediante la recolección indiscriminada de imágenes.
  6. Reconocimiento emocional: Inferir emociones en entornos laborales o educativos, salvo por razones médicas o de seguridad.
  7. Categorización biométrica: Clasificar individuos basándose en datos biométricos para inferir atributos personales.
  8. Identificación biométrica remota: Uso de identificación biométrica en espacios públicos para la aplicación de la ley, salvo en circunstancias específicas.

Exclusiones de la Ley de IA

El Artículo 2 de la Ley de IA establece exclusiones generales, como las IA liberadas bajo licencias de código abierto. Sin embargo, esta excepción no se aplica si los sistemas de IA son comercializados como de alto riesgo o están sujetos a las obligaciones de transparencia.

¿Qué sigue?

Las empresas deben evaluar minuciosamente, caso por caso, si una aplicación de IA específica se considera prohibida según el Artículo 5. Tanto los proveedores como los desplegadores tienen responsabilidades distintas basadas en su control sobre el diseño, desarrollo y uso del sistema. La implementación de medidas preventivas y de mitigación es esencial para garantizar el cumplimiento de la Ley de IA.

A pesar de ser directrices no vinculantes, la interpretación y ejemplos proporcionados por la Comisión son herramientas útiles para la evaluación y cumplimiento de la Ley de IA.

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...