La UE prohíbe herramientas de IA para puntuación social y vigilancia predictiva

La UE prohíbe herramientas de IA utilizadas para la puntuación social y la policía predictiva bajo una legislación histórica

La Unión Europea ha implementado un conjunto de restricciones bajo su innovadora Ley de IA, que entró en vigor el 2 de febrero de 2025. Esta legislación prohíbe los sistemas de IA considerados de “riesgo inaceptable”, que ahora son ilegales en todos los países del bloque.

Categorías de sistemas de IA prohibidos

Las siguientes categorías de sistemas de IA han sido prohibidas debido a que representan una amenaza clara para la seguridad, los medios de vida y los derechos de las personas:

  • Sistemas de puntuación social
  • Sistemas de reconocimiento emocional en lugares de trabajo y en instituciones educativas
  • Herramientas de evaluación o predicción del riesgo de delitos individuales
  • Herramientas de manipulación y engaño basadas en IA
  • Herramientas de explotación de vulnerabilidades basadas en IA

Además, se han prohibido prácticas como la recolección indiscriminada de datos de Internet o material de CCTV para crear o expandir bases de datos de reconocimiento facial, la categoría biométrica para deducir características protegidas y la identificación biométrica remota en tiempo real para fines de aplicación de la ley en espacios públicos.

Consecuencias para las empresas

Las empresas que violen la Ley de IA podrían enfrentarse a multas significativas. Se estima que las sanciones podrían alcanzar hasta 35 millones de euros (aproximadamente 35.8 millones de dólares) o el 7% de sus ingresos anuales globales, lo que sea mayor.

La legislación también establece la obligación legal de garantizar una suficiente alfabetización tecnológica entre el personal, un aspecto crucial para la implementación efectiva de la ley.

Exenciones y críticas

A pesar de las prohibiciones, algunos críticos han señalado que la Ley de IA incluye varias exenciones que permiten a las autoridades policiales y de migración de Europa utilizar IA para rastrear a sospechosos de ataques terroristas. Esto ha generado un debate sobre el equilibrio entre la seguridad y los derechos individuales.

Futuro de la regulación de la IA

Este marco regulatorio pionero para la IA fue oficialmente lanzado en agosto del año pasado, pero múltiples disposiciones de la ley se están implementando de manera gradual. Por ejemplo, las reglas de gobernanza y las obligaciones para las empresas tecnológicas que desarrollan modelos de IA de propósito general entrarán en vigor el 2 de agosto de 2025.

Los modelos de IA de propósito general (GPAI) se refieren a modelos de lenguaje de gran tamaño o LLMs, como la serie GPT de OpenAI. Las empresas que desarrollen sistemas de IA de alto riesgo para sectores críticos como la educación, la medicina y el transporte tendrán un período de transición ampliado hasta el 2 de agosto de 2027.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...