Guía de la Comisión Europea sobre Prácticas de IA Prohibidas

Directrices de la Comisión de la UE sobre Prácticas de IA Prohibidas bajo la Ley de IA de la UE

El 4 de febrero de 2025, la Comisión Europea (CE) emitió un borrador de directrices que clarifican las prácticas de IA prohibidas bajo la Ley de Inteligencia Artificial (IA) de la Unión Europea. Aunque estas directrices no son vinculantes, ofrecen aclaraciones valiosas y ejemplos prácticos para ayudar a las empresas a navegar sus obligaciones bajo la Ley de IA. La CE ha aprobado el borrador, pero aún debe adoptarlo formalmente, lo que se espera que ocurra en el corto plazo.

Antecedentes

El 2 de febrero de 2025, las disposiciones de la Ley de IA sobre prácticas de IA prohibidas entraron en vigor, junto con otras provisiones sobre alfabetización en IA. El Artículo 5 de la Ley de IA prohíbe ciertas prácticas de IA consideradas de riesgo inaceptable, tales como sistemas de IA que manipulan o explotan a individuos, realizan puntuaciones sociales o inferen las emociones de las personas en el lugar de trabajo o en la educación. La prohibición se aplica tanto a las empresas que ofrecen tales sistemas de IA como a aquellas que los utilizan.

Prácticas de IA Prohibidas

A continuación se presenta un resumen de las principales prohibiciones bajo la Ley de IA, según lo interpretado por las directrices:

  1. Puntuación Social: La Ley de IA prohíbe ofrecer o utilizar sistemas de IA que evalúan los comportamientos sociales de los individuos para determinar su tratamiento en un contexto no relacionado. Por ejemplo, los sistemas de IA utilizados para recomendar el precio de una prima de seguro, basados en características personales no relacionadas, podrían considerarse puntuación social.
  2. Manipulación y Explotación: La Ley prohíbe ofrecer o utilizar sistemas de IA que usen técnicas subliminales o que exploten vulnerabilidades individuales para influir en su comportamiento y causar daño. Esto incluye, por ejemplo, el uso de IA en juegos para fomentar el juego excesivo al explotar las vulnerabilidades de los niños.
  3. Reconocimiento Facial e Identificación Biométrica: La Ley prohíbe la práctica de construir bases de datos de reconocimiento facial mediante la recopilación indiscriminada de imágenes de Internet o de grabaciones de CCTV. Las directrices estipulan que la recopilación de datos que no sean imágenes faciales no está prohibida, siempre que no se utilice para la identificación biométrica.
  4. Reconocimiento de Emociones en el Lugar de Trabajo y en Instituciones Educativas: El uso de IA para reconocer emociones en estos contextos está generalmente prohibido, excepto para fines médicos o de seguridad.
  5. Categorización Biométrica: La categorización de individuos basada en atributos sensibles como raza, opiniones políticas o orientación sexual usando datos biométricos está prohibida, lo que incluye el uso de imágenes de redes sociales para enviar mensajes políticos o publicitarios.

Responsabilidades para los Proveedores de IA

Las directrices estipulan que los proveedores de sistemas de IA son responsables de no lanzar un sistema que sea “razonablemente probable” que sea utilizado para un propósito prohibido, así como de adoptar salvaguardias para prevenir el mal uso previsible. La CE espera que los proveedores excluyan claramente el uso de su sistema de IA para prácticas prohibidas en sus términos y proporcionen instrucciones claras sobre su uso.

Siguientes Pasos

Las empresas que participen en prácticas de IA prohibidas pueden enfrentarse a multas significativas, que pueden alcanzar hasta 35 millones de euros o el 7% de su facturación global anual, lo que sea mayor. Se espera que las primeras acciones de cumplimiento comiencen en la segunda mitad de 2025, a medida que los países de la UE finalicen sus regímenes de aplicación.

Las empresas que ofrecen o utilizan IA en la UE deben revisar sus sistemas de IA y términos a la luz de estas directrices y abordar cualquier brecha de cumplimiento en la primera mitad de 2025.

More Insights

Flujos de trabajo de IA responsable para la investigación en UX

La investigación de UX solo es tan sólida como las decisiones humanas que la guían, y los sesgos cognitivos pueden distorsionar los hallazgos. Este artículo explora cómo integrar la inteligencia...

La Revolución de la IA Agente en la Banca

La IA agentiva está revolucionando el sector bancario al automatizar procesos complejos y mejorar la experiencia del cliente. A pesar de sus ventajas, presenta desafíos significativos en términos de...

Cumpliendo con la Regulación: La Clave de la Infraestructura Cripto Escalable

El crecimiento explosivo de la industria de las criptomonedas ha traído consigo una serie de desafíos regulatorios, especialmente en operaciones transfronterizas. La clave para asegurar las carteras...

Camino hacia la Gobernanza de IA en ASEAN: Avances y Desafíos

La Asociación de Naciones del Sudeste Asiático (ASEAN) ha adoptado un enfoque favorable a la innovación en inteligencia artificial (IA) para avanzar hacia una economía digital. Sin embargo, los...

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...