Guías de la Comisión Europea sobre Prácticas Prohibidas de IA

Publicación de Directrices de la Comisión Europea sobre las Prácticas de IA Prohibidas bajo la Ley de IA

El 28 de abril de 2025, la Comisión Europea presentó un conjunto de directrices que abordan las prácticas de inteligencia artificial (IA) prohibidas según la Ley de IA (Reglamento (UE) 2024/1689). Este documento constituye un paso importante hacia la regulación de la IA en la Unión Europea, buscando proteger los derechos fundamentales y promover la innovación.

Antecedentes

Desde el 2 de febrero de 2025, las disposiciones generales de la Ley de IA han entrado en vigor, así como las reglas sobre prácticas de IA prohibidas. El Artículo 5 de la Ley prohíbe prácticas que podrían comprometer derechos fundamentales, tales como:

  • Técnicas manipulativas o engañosas.
  • Raspado de datos faciales no dirigido.
  • Sistemas explotadores que apuntan a grupos vulnerables.
  • Categorización biométrica y reconocimiento emocional en contextos sensibles.

Directrices sobre Prácticas de IA Prohibidas

La Comisión ha publicado un documento detallado de 135 páginas que define las prácticas de IA inaceptables debido a sus riesgos. El objetivo de este documento es proporcionar a las empresas claridad sobre cómo se interpretan y definen las prácticas de IA prohibidas. Las áreas clave incluyen:

  • Interpretación de las prohibiciones, equilibrando la protección de derechos fundamentales con la innovación.
  • Alcance de la Ley de IA, incluyendo exclusiones relevantes.
  • Alcance material y personal del Artículo 5, abarcando prácticas relacionadas con la comercialización y uso de sistemas de IA.

Prácticas Prohibidas Específicas

Las prácticas prohibidas están claramente delineadas en el Artículo 5(1) de la Ley de IA, y se examinan metódicamente para aclarar su aplicación. Las prohibiciones incluyen:

  1. Manipulación y engaño dañinos: Sistemas que distorsionan el comportamiento causando daño significativo.
  2. Explotación de vulnerabilidades: Aprovechar situaciones vulnerables, como la edad o discapacidad, para distorsionar el comportamiento.
  3. Scoring social: Evaluar individuos basándose en comportamientos sociales, llevando a tratamientos desfavorables.
  4. Evaluación de riesgo de delitos: Predecir delitos basándose exclusivamente en rasgos de personalidad.
  5. Raspado no dirigido para reconocimiento facial: Creación de bases de datos de reconocimiento facial mediante la recolección indiscriminada de imágenes.
  6. Reconocimiento emocional: Inferir emociones en entornos laborales o educativos, salvo por razones médicas o de seguridad.
  7. Categorización biométrica: Clasificar individuos basándose en datos biométricos para inferir atributos personales.
  8. Identificación biométrica remota: Uso de identificación biométrica en espacios públicos para la aplicación de la ley, salvo en circunstancias específicas.

Exclusiones de la Ley de IA

El Artículo 2 de la Ley de IA establece exclusiones generales, como las IA liberadas bajo licencias de código abierto. Sin embargo, esta excepción no se aplica si los sistemas de IA son comercializados como de alto riesgo o están sujetos a las obligaciones de transparencia.

¿Qué sigue?

Las empresas deben evaluar minuciosamente, caso por caso, si una aplicación de IA específica se considera prohibida según el Artículo 5. Tanto los proveedores como los desplegadores tienen responsabilidades distintas basadas en su control sobre el diseño, desarrollo y uso del sistema. La implementación de medidas preventivas y de mitigación es esencial para garantizar el cumplimiento de la Ley de IA.

A pesar de ser directrices no vinculantes, la interpretación y ejemplos proporcionados por la Comisión son herramientas útiles para la evaluación y cumplimiento de la Ley de IA.

More Insights

Colaboración esencial entre líderes de privacidad y TI en la adopción de IA

La adopción de la inteligencia artificial está transformando las dinámicas entre los profesionales de la privacidad y los líderes de TI, lo que subraya la necesidad de una colaboración más estrecha...

DeepSeek: Inteligencia Artificial y Gobernanza Social en China

En la víspera de la reunión anual de la legislatura de la República Popular China, los reporteros de un medio estatal invitaron a los ciudadanos a dirigir sus preguntas a DeepSeek R1, el último modelo...

Carolina del Norte Nombra a I-Sah Hsieh como Líder en Gobernanza de IA

El Departamento de Tecnología de la Información de Carolina del Norte ha nombrado a I-Sah Hsieh como el primer líder de gobernanza y política de IA del estado. Hsieh se centrará en guiar a Carolina...

Desafíos y Estrategias en la Gobernanza de la IA

La inteligencia artificial se ha convertido rápidamente en un motor crítico en cada industria, pero también conlleva riesgos significativos. En una conversación reciente, el Dr. Enzo Tolentino destacó...

La Amenaza Invisible de la IA: Riesgos Ocultos en Despliegues Secretos

El informe advierte que el despliegue interno no regulado de sistemas de inteligencia artificial podría llevar a riesgos catastróficos, desde que los sistemas de IA escapen al control humano hasta la...

Expertos Globales Abordan la Gobernanza de la IA en el Foro de Shanghái 2025

Expertos de todo el mundo discutieron los desafíos de gobernanza derivados del rápido avance de la inteligencia artificial en el sub-foro del Foro de Shanghái 2025. Subrayaron la importancia de...

Gobernanza de Datos y AI: Clave para un Futuro Sostenible en Malasia

La inteligencia artificial (IA) está revolucionando industrias en todo el mundo, y Malasia no es la excepción. A medida que las organizaciones adoptan la IA, deben priorizar la gobernanza de datos...

Las universidades como líderes en el futuro de la inteligencia artificial

La inteligencia artificial se ha convertido en la nueva línea de falla geopolítica, y las universidades ahora están en el centro de esta cuestión. Es crucial que las universidades naveguen por el...