El Acta de IA de la UE: Implicaciones y Pasos a Seguir

La Ley de IA de la UE comienza a entrar en vigor: lo que necesita saber y cómo prepararse

El 2 de febrero de 2025, los capítulos I y II de la Ley de IA de la Unión Europea entraron en vigor. Las dos disposiciones clave que han tomado efecto se refieren a las prácticas de IA prohibidas y a la alfabetización en IA. Este artículo explica sus implicaciones tanto para los proveedores (desarrolladores) como para los desplegadores (usuarios, excepto para actividades personales y no profesionales) de sistemas de IA y sugiere pasos a seguir ahora para cerrar la brecha de cumplimiento.

Las empresas ubicadas fuera de la UE deben tener en cuenta que el denominado ‘efecto Bruselas’ se aplica a la Ley, lo que significa que las empresas no pertenecientes a la UE que implementen sistemas en la UE, sirvan a usuarios basados en la UE o utilicen salidas de IA dentro de la UE también estarán dentro de su ámbito de aplicación.

Prácticas de IA prohibidas bajo la Ley de IA de la UE

El artículo 5 de la Ley de IA enumera las prácticas de IA consideradas inaceptables debido a sus riesgos potenciales para los valores y derechos fundamentales de la UE. Estas deben leerse junto con las directrices recientemente publicadas por la Comisión Europea. Aunque no son legalmente vinculantes, las directrices, que esperan adopción formal, probablemente informarán la interpretación de los reguladores y los tribunales sobre el artículo 5.

La legislación prohíbe la colocación en el mercado, la puesta en servicio y el uso de sistemas de IA en los siguientes contextos:

Manipulación o engaño dañinos

La Ley prohíbe que los sistemas de IA empleen técnicas subliminales, manipulativas o engañosas que distorsionen el comportamiento humano, perjudicando la toma de decisiones informadas de los individuos. Esto es ilegal incluso si el usuario es consciente de la influencia de la IA.

Ejemplo de práctica prohibida: Utilizar destellos de imágenes impulsados por IA para influir en decisiones de compra.

Explotación de individuos basada en vulnerabilidades

Esto está prohibido si distorsiona el comportamiento de las personas de manera perjudicial.

Ejemplo de práctica prohibida: Utilizar un sistema de IA que dirija tratamientos médicos innecesarios a personas mayores.

Clasificación social que lleva a un tratamiento perjudicial injustificable

Se prohíbe usar IA para clasificar o evaluar a las personas basándose en su comportamiento social o rasgos de personalidad si resulta en un tratamiento desfavorable.

Ejemplo de práctica prohibida: Uso de IA por parte de una agencia de bienestar social para estimar el riesgo de fraude en beneficios de una manera que se basa en características irrelevantes.

Policía predictiva

La Ley prohíbe predecir el riesgo de que alguien cometa un delito solo basándose en perfiles o evaluación de rasgos de personalidad, excepto para apoyar una evaluación basada en hechos.

Ejemplo de práctica prohibida: Desplegar un sistema de IA para predecir delitos fiscales basándose en perfiles individuales sin hechos verificables.

Recolección de imágenes faciales

No se pueden usar sistemas de IA para crear o expandir una base de datos de reconocimiento facial a través de recolección indiscriminada de imágenes.

Ejemplo de práctica prohibida: Utilizar IA para extraer características faciales de fotografías de individuos en redes sociales.

Reconocimiento emocional en entornos laborales o educativos

Se prohíbe el uso de IA para identificar o inferir emociones en contextos profesionales o educativos, salvo por razones médicas o de seguridad.

Ejemplo de práctica prohibida: Un sistema de IA en un centro de atención al cliente que detecte la ira en la voz de un empleado.

Categorización biométrica para inferir información sensible

No se permiten sistemas de IA que categoricen a individuos basándose en datos biométricos para inferir información sensible.

Ejemplo de práctica prohibida: Usar un sistema de IA para analizar fotos en redes sociales y deducir creencias políticas.

Identificación biométrica remota en tiempo real

El uso de IA para este propósito en espacios públicos solo está permitido si es estrictamente necesario para ciertos fines de investigación o seguridad.

Ejemplo de práctica prohibida: Uso de reconocimiento facial en estaciones de tren para identificar a personas en una lista de vigilancia general.

Las prohibiciones se aplican independientemente de si el efecto dañino fue intencionado. Por ejemplo, un chatbot que promueve hábitos saludables podría ser considerado prohibido si lleva a los usuarios a conductas dañinas.

Requisitos de alfabetización en IA en la Ley de IA de la UE

El artículo 4 de la Ley requiere que los proveedores y desplegadores tomen medidas para asegurar que su personal tenga un nivel ‘suficiente’ de alfabetización en IA.

A pesar de que esto se aplica a todos los sistemas de IA, la alfabetización en IA sigue siendo un concepto nebuloso. El considerando 20 busca habilitar a las partes interesadas a tomar decisiones informadas sobre el uso de sistemas de IA.

Esto podría ser abrumador para las empresas, dado que abarca cuestiones éticas y las implicaciones sociales y políticas de los sistemas de IA.

Cumplimiento y pasos prácticos

La Ley no menciona sanciones por incumplimiento de los requisitos de alfabetización en IA, pero informes falsos podrían resultar en multas significativas.

Las prácticas de IA prohibidas incurrirán en las multas más altas bajo la Ley, de hasta €35 millones o 7% del volumen de negocios global anual.

Los mecanismos de cumplimiento entrarán en vigor el 2 de agosto de 2025. Las organizaciones deben utilizar este tiempo para asegurar el cumplimiento con los artículos 4 y 5.

Entre las acciones recomendadas se incluyen:

  • Hacer un inventario de todos los sistemas de IA, evaluando sus riesgos y beneficios.
  • Crear recursos de alfabetización en IA como programas de capacitación y políticas de uso responsable de IA.
  • Desarrollar programas de capacitación adaptados al personal relevante.
  • Establecer políticas de gobernanza de IA para regular el desarrollo y despliegue de sistemas de IA.
  • Documentar el propósito y los procesos de toma de decisiones de cada sistema de IA utilizado.

Las empresas que comiencen ahora a invertir en cumplimiento con la Ley de IA de la UE estarán mejor posicionadas para navegar en el creciente panorama internacional de la regulación de IA.

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...