La UE prohíbe herramientas de IA utilizadas para la puntuación social y la policía predictiva bajo una legislación histórica
La Unión Europea ha implementado un conjunto de restricciones bajo su innovadora Ley de IA, que entró en vigor el 2 de febrero de 2025. Esta legislación prohíbe los sistemas de IA considerados de “riesgo inaceptable”, que ahora son ilegales en todos los países del bloque.
Categorías de sistemas de IA prohibidos
Las siguientes categorías de sistemas de IA han sido prohibidas debido a que representan una amenaza clara para la seguridad, los medios de vida y los derechos de las personas:
- Sistemas de puntuación social
- Sistemas de reconocimiento emocional en lugares de trabajo y en instituciones educativas
- Herramientas de evaluación o predicción del riesgo de delitos individuales
- Herramientas de manipulación y engaño basadas en IA
- Herramientas de explotación de vulnerabilidades basadas en IA
Además, se han prohibido prácticas como la recolección indiscriminada de datos de Internet o material de CCTV para crear o expandir bases de datos de reconocimiento facial, la categoría biométrica para deducir características protegidas y la identificación biométrica remota en tiempo real para fines de aplicación de la ley en espacios públicos.
Consecuencias para las empresas
Las empresas que violen la Ley de IA podrían enfrentarse a multas significativas. Se estima que las sanciones podrían alcanzar hasta 35 millones de euros (aproximadamente 35.8 millones de dólares) o el 7% de sus ingresos anuales globales, lo que sea mayor.
La legislación también establece la obligación legal de garantizar una suficiente alfabetización tecnológica entre el personal, un aspecto crucial para la implementación efectiva de la ley.
Exenciones y críticas
A pesar de las prohibiciones, algunos críticos han señalado que la Ley de IA incluye varias exenciones que permiten a las autoridades policiales y de migración de Europa utilizar IA para rastrear a sospechosos de ataques terroristas. Esto ha generado un debate sobre el equilibrio entre la seguridad y los derechos individuales.
Futuro de la regulación de la IA
Este marco regulatorio pionero para la IA fue oficialmente lanzado en agosto del año pasado, pero múltiples disposiciones de la ley se están implementando de manera gradual. Por ejemplo, las reglas de gobernanza y las obligaciones para las empresas tecnológicas que desarrollan modelos de IA de propósito general entrarán en vigor el 2 de agosto de 2025.
Los modelos de IA de propósito general (GPAI) se refieren a modelos de lenguaje de gran tamaño o LLMs, como la serie GPT de OpenAI. Las empresas que desarrollen sistemas de IA de alto riesgo para sectores críticos como la educación, la medicina y el transporte tendrán un período de transición ampliado hasta el 2 de agosto de 2027.