Una espada de doble filo: ¿estancará o fomentará la innovación tecnológica la Ley de IA de la UE?
La reciente cumbre de líderes globales en París para discutir la inteligencia artificial ha vuelto a situar a la IA en el centro de la atención. La Cumbre de Acción de Inteligencia Artificial de París de febrero de 2025 representó un intento de fortalecer la acción internacional en favor de una IA más sostenible que sirva al progreso colectivo y al interés general.
Asimismo, el 2 de febrero de 2025, se demostró el enfoque regulatorio cauteloso de la UE con la entrada en vigor de los primeros aspectos de la Ley de IA de la UE. Esta ley prohíbe de manera categórica la IA que represente un «riesgo inaceptable», sin importar si estos sistemas fueron comercializados antes o después de esa fecha.
Objetivos de la Ley de IA de la UE
El propósito de la Ley de IA de la UE es establecer un marco legal uniforme para el desarrollo y uso de sistemas de IA, asegurando al mismo tiempo un alto nivel de protección de los intereses públicos, incluidos la salud, la seguridad y los derechos fundamentales.
La contraposición entre el enfoque de la UE y el de EE.UU. es evidente. En la cumbre de París, el vicepresidente de EE.UU., JD Vance, afirmó: «Creemos que la regulación excesiva del sector de la IA podría matar a una industria transformadora justo cuando está despegando.»
Impacto y alcance de la Ley
Con EE.UU. liderando la revolución de la IA, tal postura podría tener repercusiones a largo plazo. La Ley de IA de la UE entró en vigor el 1 de agosto de 2024, pero con diferentes disposiciones programadas para aplicarse más adelante. La mayoría de las disposiciones entrarán en vigor el 2 de agosto de 2026.
La entrada en vigor de las primeras etapas de la Ley de IA de la UE no solo afectará a las empresas con sede en la UE, sino también a negocios extranjeros. Esto se debe a que el Artículo 2 de la ley establece su efecto extraterritorial, donde se utiliza la salida de un sistema de IA dentro de la UE.
Se anticipa que la Ley de IA de la UE podría convertirse en un referente regulatorio global, al igual que el GDPR. Algunos buscarán armonizarse con la Ley de IA de la UE como una cuestión de buenas prácticas y gestión de riesgos.
Enfoque basado en el riesgo
La Ley de IA de la UE adopta un enfoque basado en el riesgo adaptado al nivel de riesgo del sistema:
- Sistemas de IA de riesgo inaceptable: que despliegan prácticas manipulativas, explotadoras, de control social o vigilancia, ahora están prohibidos.
- Sistemas de IA de alto riesgo: que crean un riesgo significativo de daño a la salud, seguridad o derechos fundamentales de las personas, están regulados.
- Sistemas de IA de riesgo limitado: como chatbots o deepfakes, están sujetos a obligaciones de transparencia.
- Sistemas de IA de riesgo mínimo: como filtros de spam, no están regulados por la Ley de IA de la UE, pero siguen sujetos a regulaciones aplicables como el GDPR.
La Comisión Europea publicó dos conjuntos de directrices sobre la definición del sistema de IA y sobre las prácticas de IA prohibidas para aumentar la claridad legal y asegurar la aplicación uniforme de la Ley de IA de la UE.
Sin embargo, estas amplias directrices son «no vinculantes» y la interpretación de la Ley de IA de la UE es competencia del Tribunal de Justicia de la Unión Europea. Precisamente, cómo se interpretará la Ley de IA de la UE permanece por verse.
Implicaciones para las empresas
En la práctica, las empresas del Reino Unido que comercian con la UE, ya sean proveedores, implementadores, importadores, distribuidores o representantes de sistemas de IA, deben asegurarse de no utilizar sistemas de IA que proporcionen puntuaciones sociales de personas naturales o realicen scraping no dirigido de imágenes faciales para poblar bases de datos de reconocimiento facial. Estos sistemas ahora están prohibidos en la UE.
Las sanciones por incumplimiento son sustanciales, con infracciones relacionadas con la IA prohibida que pueden atraer hasta el 7% de la facturación global anual del infractor o 35 millones de euros, lo que sea mayor.
Existen excepciones a la Ley de IA, especialmente en lo que respecta a sistemas de IA desarrollados para uso privado, investigación científica y desarrollo, o si se lanzan bajo licencias de código abierto (excepto cuando califiquen como de alto riesgo).
Además, la Ley de IA apoya la innovación al permitir la creación de sandbox regulatorios de IA (que proporcionan un entorno controlado que fomenta la innovación facilitando el desarrollo, entrenamiento y prueba de sistemas de IA innovadores) y proporciona un marco para la prueba de sistemas de IA de alto riesgo en condiciones del mundo real.
Se aprobaron medidas específicas para pequeñas y medianas empresas y startups para ayudarles a ingresar al mercado de la IA y convertirse en competidores de empresas ya establecidas.
Conclusiones
¿Será esto suficiente para convertir a la UE en un destino atractivo para la investigación en IA y las startups, o estas diversas disposiciones ahogarán la innovación? Se podría argumentar que un marco legal para el desarrollo y uso de sistemas de IA de acuerdo con los valores y derechos fundamentales de la UE podría ayudar a aumentar la confianza de los usuarios en la IA, lo que impulsaría la demanda en este campo.
Para impulsar la innovación, el presidente francés Emmanuel Macron anunció inversiones de aproximadamente 100 mil millones de euros en IA durante la reciente cumbre en París. Sin embargo, cualquier tipo de incentivo no liberará a las empresas de la carga de cumplir no solo con la Ley de IA de la UE, sino también con otras regulaciones europeas aplicables. Por ejemplo, cualquier sistema de IA que procese datos personales deberá cumplir con el GDPR.
Permanece por verse si la UE emergerá como un verdadero innovador en IA, pero la carrera por liderar la revolución de la IA es ampliamente considerada como una competencia entre EE.UU. y China.