Regulación de la IA en la UE: Implicaciones para los Proveedores Externos

Reglamento (UE) 2024/1689 sobre Inteligencia Artificial (Ley de IA)

El Reglamento (UE) 2024/1689 establece reglas armonizadas para el desarrollo y uso de sistemas de inteligencia artificial en la Unión Europea (UE). Adoptado por el Consejo el 21 de mayo de 2024, fue publicado en el Diario Oficial de la UE el 12 de julio de 2024.

Objetivo de la Ley de IA

El propósito de la Ley de IA es «mejorar el funcionamiento del mercado interno y promover la adopción de inteligencia artificial (IA) centrada en el ser humano y confiable, asegurando un alto nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluyendo la democracia, el estado de derecho y la protección del medio ambiente, contra los efectos perjudiciales de los sistemas de IA en la Unión y apoyando la innovación.» (artículo 1 (1) de la Ley de IA).

Alcance Extraterritorial

Debido a su alcance extraterritorial, la Ley de IA se aplicará a los proveedores y desplegadores de países no pertenecientes a la UE. Esto incluye a aquellos que desarrollan un sistema de IA o un modelo de IA de propósito general, o que tienen un sistema de IA desarrollado y lo colocan en el mercado bajo su propio nombre o marca.

Calendario de Implementación

La Ley de IA se implementará de manera progresiva, con aplicación a partir del 2 de agosto de 2026. Sin embargo, se aplicarán ciertas disposiciones antes de esta fecha:

  • Provisiones generales (Capítulo I) y reglas sobre sistemas de IA con riesgo inaceptable (Capítulo II) desde el 2 de febrero de 2025;
  • Provisiones sobre autoridades notificadoras y organismos notificados (Capítulo III), y reglas sobre modelos de IA de propósito general desde el 2 de agosto de 2025;
  • Reglas sobre sistemas de IA de alto riesgo desde el 2 de agosto de 2027.

Contenido de la Ley de IA

La Ley de IA se basa en un enfoque basado en riesgos. Cuanto mayor sea el riesgo de daño a los derechos fundamentales de las personas o a la sociedad, más estrictas serán las reglas establecidas por la Ley de IA. Esto incluye:

  • Prohibición de ciertas prácticas de IA inaceptables;
  • Requisitos para sistemas de IA de alto riesgo;
  • Obligaciones de transparencia para sistemas de IA de bajo riesgo.

Prácticas de IA Prohibidas

El Reglamento prohíbe el uso de sistemas de IA que implementen técnicas subliminales o manipulativas que distorsionen el comportamiento de las personas, así como aquellos que exploten vulnerabilidades de grupos específicos de personas.

Obligaciones para Sistemas de Alto Riesgo

Los sistemas de IA identificados como de alto riesgo están relacionados con áreas como:

  • Biometría (sistemas de identificación biométrica);
  • Infraestructura crítica (sistemas de gestión de infraestructura digital);
  • Educación (sistemas de evaluación de resultados de aprendizaje);
  • Empleo (sistemas utilizados en procesos de selección de personal);
  • Servicios públicos (sistemas utilizados para evaluar la elegibilidad de beneficios públicos).

Conclusiones

Con la Ley de IA, la UE busca posicionarse como un referente en la regulación de la inteligencia artificial, promoviendo la innovación y el acceso al mercado para sistemas de IA desarrollados por pequeñas y medianas empresas (PYMES) y startups. Esto se logrará a través de «espacios de regulación» a nivel nacional que permitan un entorno controlado para la experimentación y prueba de desarrollos de IA.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...