La Ley de IA de la UE comienza a entrar en vigor: lo que necesita saber y cómo prepararse
El 2 de febrero de 2025, los capítulos I y II de la Ley de IA de la Unión Europea entraron en vigor. Las dos disposiciones clave que han tomado efecto se refieren a las prácticas de IA prohibidas y a la alfabetización en IA. Este artículo explica sus implicaciones tanto para los proveedores (desarrolladores) como para los desplegadores (usuarios, excepto para actividades personales y no profesionales) de sistemas de IA y sugiere pasos a seguir ahora para cerrar la brecha de cumplimiento.
Las empresas ubicadas fuera de la UE deben tener en cuenta que el denominado ‘efecto Bruselas’ se aplica a la Ley, lo que significa que las empresas no pertenecientes a la UE que implementen sistemas en la UE, sirvan a usuarios basados en la UE o utilicen salidas de IA dentro de la UE también estarán dentro de su ámbito de aplicación.
Prácticas de IA prohibidas bajo la Ley de IA de la UE
El artículo 5 de la Ley de IA enumera las prácticas de IA consideradas inaceptables debido a sus riesgos potenciales para los valores y derechos fundamentales de la UE. Estas deben leerse junto con las directrices recientemente publicadas por la Comisión Europea. Aunque no son legalmente vinculantes, las directrices, que esperan adopción formal, probablemente informarán la interpretación de los reguladores y los tribunales sobre el artículo 5.
La legislación prohíbe la colocación en el mercado, la puesta en servicio y el uso de sistemas de IA en los siguientes contextos:
Manipulación o engaño dañinos
La Ley prohíbe que los sistemas de IA empleen técnicas subliminales, manipulativas o engañosas que distorsionen el comportamiento humano, perjudicando la toma de decisiones informadas de los individuos. Esto es ilegal incluso si el usuario es consciente de la influencia de la IA.
Ejemplo de práctica prohibida: Utilizar destellos de imágenes impulsados por IA para influir en decisiones de compra.
Explotación de individuos basada en vulnerabilidades
Esto está prohibido si distorsiona el comportamiento de las personas de manera perjudicial.
Ejemplo de práctica prohibida: Utilizar un sistema de IA que dirija tratamientos médicos innecesarios a personas mayores.
Clasificación social que lleva a un tratamiento perjudicial injustificable
Se prohíbe usar IA para clasificar o evaluar a las personas basándose en su comportamiento social o rasgos de personalidad si resulta en un tratamiento desfavorable.
Ejemplo de práctica prohibida: Uso de IA por parte de una agencia de bienestar social para estimar el riesgo de fraude en beneficios de una manera que se basa en características irrelevantes.
Policía predictiva
La Ley prohíbe predecir el riesgo de que alguien cometa un delito solo basándose en perfiles o evaluación de rasgos de personalidad, excepto para apoyar una evaluación basada en hechos.
Ejemplo de práctica prohibida: Desplegar un sistema de IA para predecir delitos fiscales basándose en perfiles individuales sin hechos verificables.
Recolección de imágenes faciales
No se pueden usar sistemas de IA para crear o expandir una base de datos de reconocimiento facial a través de recolección indiscriminada de imágenes.
Ejemplo de práctica prohibida: Utilizar IA para extraer características faciales de fotografías de individuos en redes sociales.
Reconocimiento emocional en entornos laborales o educativos
Se prohíbe el uso de IA para identificar o inferir emociones en contextos profesionales o educativos, salvo por razones médicas o de seguridad.
Ejemplo de práctica prohibida: Un sistema de IA en un centro de atención al cliente que detecte la ira en la voz de un empleado.
Categorización biométrica para inferir información sensible
No se permiten sistemas de IA que categoricen a individuos basándose en datos biométricos para inferir información sensible.
Ejemplo de práctica prohibida: Usar un sistema de IA para analizar fotos en redes sociales y deducir creencias políticas.
Identificación biométrica remota en tiempo real
El uso de IA para este propósito en espacios públicos solo está permitido si es estrictamente necesario para ciertos fines de investigación o seguridad.
Ejemplo de práctica prohibida: Uso de reconocimiento facial en estaciones de tren para identificar a personas en una lista de vigilancia general.
Las prohibiciones se aplican independientemente de si el efecto dañino fue intencionado. Por ejemplo, un chatbot que promueve hábitos saludables podría ser considerado prohibido si lleva a los usuarios a conductas dañinas.
Requisitos de alfabetización en IA en la Ley de IA de la UE
El artículo 4 de la Ley requiere que los proveedores y desplegadores tomen medidas para asegurar que su personal tenga un nivel ‘suficiente’ de alfabetización en IA.
A pesar de que esto se aplica a todos los sistemas de IA, la alfabetización en IA sigue siendo un concepto nebuloso. El considerando 20 busca habilitar a las partes interesadas a tomar decisiones informadas sobre el uso de sistemas de IA.
Esto podría ser abrumador para las empresas, dado que abarca cuestiones éticas y las implicaciones sociales y políticas de los sistemas de IA.
Cumplimiento y pasos prácticos
La Ley no menciona sanciones por incumplimiento de los requisitos de alfabetización en IA, pero informes falsos podrían resultar en multas significativas.
Las prácticas de IA prohibidas incurrirán en las multas más altas bajo la Ley, de hasta €35 millones o 7% del volumen de negocios global anual.
Los mecanismos de cumplimiento entrarán en vigor el 2 de agosto de 2025. Las organizaciones deben utilizar este tiempo para asegurar el cumplimiento con los artículos 4 y 5.
Entre las acciones recomendadas se incluyen:
- Hacer un inventario de todos los sistemas de IA, evaluando sus riesgos y beneficios.
- Crear recursos de alfabetización en IA como programas de capacitación y políticas de uso responsable de IA.
- Desarrollar programas de capacitación adaptados al personal relevante.
- Establecer políticas de gobernanza de IA para regular el desarrollo y despliegue de sistemas de IA.
- Documentar el propósito y los procesos de toma de decisiones de cada sistema de IA utilizado.
Las empresas que comiencen ahora a invertir en cumplimiento con la Ley de IA de la UE estarán mejor posicionadas para navegar en el creciente panorama internacional de la regulación de IA.