La UE prohíbe herramientas de IA para puntuación social y vigilancia predictiva

La UE prohíbe herramientas de IA utilizadas para la puntuación social y la policía predictiva bajo una legislación histórica

La Unión Europea ha implementado un conjunto de restricciones bajo su innovadora Ley de IA, que entró en vigor el 2 de febrero de 2025. Esta legislación prohíbe los sistemas de IA considerados de “riesgo inaceptable”, que ahora son ilegales en todos los países del bloque.

Categorías de sistemas de IA prohibidos

Las siguientes categorías de sistemas de IA han sido prohibidas debido a que representan una amenaza clara para la seguridad, los medios de vida y los derechos de las personas:

  • Sistemas de puntuación social
  • Sistemas de reconocimiento emocional en lugares de trabajo y en instituciones educativas
  • Herramientas de evaluación o predicción del riesgo de delitos individuales
  • Herramientas de manipulación y engaño basadas en IA
  • Herramientas de explotación de vulnerabilidades basadas en IA

Además, se han prohibido prácticas como la recolección indiscriminada de datos de Internet o material de CCTV para crear o expandir bases de datos de reconocimiento facial, la categoría biométrica para deducir características protegidas y la identificación biométrica remota en tiempo real para fines de aplicación de la ley en espacios públicos.

Consecuencias para las empresas

Las empresas que violen la Ley de IA podrían enfrentarse a multas significativas. Se estima que las sanciones podrían alcanzar hasta 35 millones de euros (aproximadamente 35.8 millones de dólares) o el 7% de sus ingresos anuales globales, lo que sea mayor.

La legislación también establece la obligación legal de garantizar una suficiente alfabetización tecnológica entre el personal, un aspecto crucial para la implementación efectiva de la ley.

Exenciones y críticas

A pesar de las prohibiciones, algunos críticos han señalado que la Ley de IA incluye varias exenciones que permiten a las autoridades policiales y de migración de Europa utilizar IA para rastrear a sospechosos de ataques terroristas. Esto ha generado un debate sobre el equilibrio entre la seguridad y los derechos individuales.

Futuro de la regulación de la IA

Este marco regulatorio pionero para la IA fue oficialmente lanzado en agosto del año pasado, pero múltiples disposiciones de la ley se están implementando de manera gradual. Por ejemplo, las reglas de gobernanza y las obligaciones para las empresas tecnológicas que desarrollan modelos de IA de propósito general entrarán en vigor el 2 de agosto de 2025.

Los modelos de IA de propósito general (GPAI) se refieren a modelos de lenguaje de gran tamaño o LLMs, como la serie GPT de OpenAI. Las empresas que desarrollen sistemas de IA de alto riesgo para sectores críticos como la educación, la medicina y el transporte tendrán un período de transición ampliado hasta el 2 de agosto de 2027.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...