El Acta de IA de la UE: Implicaciones y Pasos a Seguir

La Ley de IA de la UE comienza a entrar en vigor: lo que necesita saber y cómo prepararse

El 2 de febrero de 2025, los capítulos I y II de la Ley de IA de la Unión Europea entraron en vigor. Las dos disposiciones clave que han tomado efecto se refieren a las prácticas de IA prohibidas y a la alfabetización en IA. Este artículo explica sus implicaciones tanto para los proveedores (desarrolladores) como para los desplegadores (usuarios, excepto para actividades personales y no profesionales) de sistemas de IA y sugiere pasos a seguir ahora para cerrar la brecha de cumplimiento.

Las empresas ubicadas fuera de la UE deben tener en cuenta que el denominado ‘efecto Bruselas’ se aplica a la Ley, lo que significa que las empresas no pertenecientes a la UE que implementen sistemas en la UE, sirvan a usuarios basados en la UE o utilicen salidas de IA dentro de la UE también estarán dentro de su ámbito de aplicación.

Prácticas de IA prohibidas bajo la Ley de IA de la UE

El artículo 5 de la Ley de IA enumera las prácticas de IA consideradas inaceptables debido a sus riesgos potenciales para los valores y derechos fundamentales de la UE. Estas deben leerse junto con las directrices recientemente publicadas por la Comisión Europea. Aunque no son legalmente vinculantes, las directrices, que esperan adopción formal, probablemente informarán la interpretación de los reguladores y los tribunales sobre el artículo 5.

La legislación prohíbe la colocación en el mercado, la puesta en servicio y el uso de sistemas de IA en los siguientes contextos:

Manipulación o engaño dañinos

La Ley prohíbe que los sistemas de IA empleen técnicas subliminales, manipulativas o engañosas que distorsionen el comportamiento humano, perjudicando la toma de decisiones informadas de los individuos. Esto es ilegal incluso si el usuario es consciente de la influencia de la IA.

Ejemplo de práctica prohibida: Utilizar destellos de imágenes impulsados por IA para influir en decisiones de compra.

Explotación de individuos basada en vulnerabilidades

Esto está prohibido si distorsiona el comportamiento de las personas de manera perjudicial.

Ejemplo de práctica prohibida: Utilizar un sistema de IA que dirija tratamientos médicos innecesarios a personas mayores.

Clasificación social que lleva a un tratamiento perjudicial injustificable

Se prohíbe usar IA para clasificar o evaluar a las personas basándose en su comportamiento social o rasgos de personalidad si resulta en un tratamiento desfavorable.

Ejemplo de práctica prohibida: Uso de IA por parte de una agencia de bienestar social para estimar el riesgo de fraude en beneficios de una manera que se basa en características irrelevantes.

Policía predictiva

La Ley prohíbe predecir el riesgo de que alguien cometa un delito solo basándose en perfiles o evaluación de rasgos de personalidad, excepto para apoyar una evaluación basada en hechos.

Ejemplo de práctica prohibida: Desplegar un sistema de IA para predecir delitos fiscales basándose en perfiles individuales sin hechos verificables.

Recolección de imágenes faciales

No se pueden usar sistemas de IA para crear o expandir una base de datos de reconocimiento facial a través de recolección indiscriminada de imágenes.

Ejemplo de práctica prohibida: Utilizar IA para extraer características faciales de fotografías de individuos en redes sociales.

Reconocimiento emocional en entornos laborales o educativos

Se prohíbe el uso de IA para identificar o inferir emociones en contextos profesionales o educativos, salvo por razones médicas o de seguridad.

Ejemplo de práctica prohibida: Un sistema de IA en un centro de atención al cliente que detecte la ira en la voz de un empleado.

Categorización biométrica para inferir información sensible

No se permiten sistemas de IA que categoricen a individuos basándose en datos biométricos para inferir información sensible.

Ejemplo de práctica prohibida: Usar un sistema de IA para analizar fotos en redes sociales y deducir creencias políticas.

Identificación biométrica remota en tiempo real

El uso de IA para este propósito en espacios públicos solo está permitido si es estrictamente necesario para ciertos fines de investigación o seguridad.

Ejemplo de práctica prohibida: Uso de reconocimiento facial en estaciones de tren para identificar a personas en una lista de vigilancia general.

Las prohibiciones se aplican independientemente de si el efecto dañino fue intencionado. Por ejemplo, un chatbot que promueve hábitos saludables podría ser considerado prohibido si lleva a los usuarios a conductas dañinas.

Requisitos de alfabetización en IA en la Ley de IA de la UE

El artículo 4 de la Ley requiere que los proveedores y desplegadores tomen medidas para asegurar que su personal tenga un nivel ‘suficiente’ de alfabetización en IA.

A pesar de que esto se aplica a todos los sistemas de IA, la alfabetización en IA sigue siendo un concepto nebuloso. El considerando 20 busca habilitar a las partes interesadas a tomar decisiones informadas sobre el uso de sistemas de IA.

Esto podría ser abrumador para las empresas, dado que abarca cuestiones éticas y las implicaciones sociales y políticas de los sistemas de IA.

Cumplimiento y pasos prácticos

La Ley no menciona sanciones por incumplimiento de los requisitos de alfabetización en IA, pero informes falsos podrían resultar en multas significativas.

Las prácticas de IA prohibidas incurrirán en las multas más altas bajo la Ley, de hasta €35 millones o 7% del volumen de negocios global anual.

Los mecanismos de cumplimiento entrarán en vigor el 2 de agosto de 2025. Las organizaciones deben utilizar este tiempo para asegurar el cumplimiento con los artículos 4 y 5.

Entre las acciones recomendadas se incluyen:

  • Hacer un inventario de todos los sistemas de IA, evaluando sus riesgos y beneficios.
  • Crear recursos de alfabetización en IA como programas de capacitación y políticas de uso responsable de IA.
  • Desarrollar programas de capacitación adaptados al personal relevante.
  • Establecer políticas de gobernanza de IA para regular el desarrollo y despliegue de sistemas de IA.
  • Documentar el propósito y los procesos de toma de decisiones de cada sistema de IA utilizado.

Las empresas que comiencen ahora a invertir en cumplimiento con la Ley de IA de la UE estarán mejor posicionadas para navegar en el creciente panorama internacional de la regulación de IA.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...