La Nueva Ley de IA de la UE: Implicaciones y Desafíos

La Ley de IA de la UE está a punto de entrar en plena vigencia

La Unión Europea implementó su AI Act el año pasado, lanzando directrices para garantizar el cumplimiento y equilibrar la innovación en inteligencia artificial con la seguridad. Esto culminó en el lanzamiento del AI Act Explorer el 18 de julio, una guía integral para las empresas que navegan por estas regulaciones.

La AI Act se estableció para introducir salvaguardias para modelos avanzados de inteligencia artificial, mientras se cultiva un ecosistema competitivo e innovador para las empresas de IA. Esta ley clasifica los modelos en distintas categorías de riesgo. La Vicepresidenta Ejecutiva de la Comisión de la UE para la Soberanía Tecnológica, Seguridad y Democracia, Henna Virkkunen, declaró que las directrices emitidas por la Comisión apoyan la aplicación fluida y efectiva de la AI Act.

Categorización de Riesgos

Bajo el marco regulatorio de la ley de la UE, los modelos de inteligencia artificial se clasifican en uno de cuatro niveles de riesgo distintos: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo. Los AI clasificados en la categoría de riesgo inaceptable enfrentan una prohibición dentro de la UE. Esta clasificación incluye aplicaciones como sistemas de reconocimiento facial y mecanismos de puntuación social. Otras categorías se determinan por la capacidad computacional de la IA o sus funcionalidades designadas.

AI con Riesgos Sistémicos

La Unión Europea define los modelos de inteligencia artificial que presentan riesgos sistémicos como aquellos desarrollados utilizando “más de 10^25 operaciones de punto flotante (FLOPs)”. Modelos notables que caen bajo esta clasificación incluyen GPT-4 de OpenAI, o3 de OpenAI, Google Gemini 2.5 Pro, y los modelos más recientes de Claude de Anthropic, así como Grok-3 de xAI. La publicación de la guía del AI Act Explorer precede la fecha límite del 2 de agosto por aproximadamente dos semanas, la cual exige que los modelos de IA de propósito general y aquellos identificados como que suponen riesgos sistémicos cumplan con las disposiciones de la ley.

Obligaciones de los Fabricantes

Los fabricantes de modelos de IA identificados como que presentan riesgos sistémicos están sujetos a obligaciones específicas. Estas incluyen realizar evaluaciones exhaustivas del modelo para identificar posibles riesgos sistémicos y documentar las pruebas adversariales realizadas durante la mitigación de tales riesgos. Además, se requiere que estos fabricantes informen sobre incidentes graves a las oficinas de la UE y nacionales si tales ocurrencias se materializan. También deben implementar medidas adecuadas de ciberseguridad para protegerse contra el uso indebido o la compromisión de sus sistemas de IA. La ley coloca de manera integral la responsabilidad sobre las empresas de IA para identificar y prevenir proactivamente los riesgos sistémicos potenciales desde su origen.

El AI Act Explorer

El AI Act Explorer ha sido diseñado para proporcionar a los desarrolladores de inteligencia artificial directrices explícitas sobre la aplicabilidad de las diversas disposiciones de la ley a sus operaciones. Las empresas también tienen acceso al compliance checker de la UE, una herramienta que les permite determinar sus obligaciones específicas bajo la ley. El incumplimiento de las estipulaciones de la ley puede resultar en sanciones financieras sustanciales. Las multas oscilan entre 7.5 millones de euros, equivalentes a 8.7 millones de dólares, o el 1.5% de la facturación global de una empresa, hasta un máximo de 35 millones de euros, o el 7% de la facturación global, siendo la cantidad específica contingente a la gravedad de la violación.

Críticas y Apoyos

Los críticos de la AI Act han caracterizado sus regulaciones como inconsistentes y han afirmado que inhiben la innovación. El 18 de julio, Joel Kaplan, Jefe de Asuntos Globales de Meta, declaró que la empresa no respaldaría el Código de Práctica de la UE para modelos de IA de propósito general, que es un marco voluntario alineado con la AI Act. Kaplan afirmó en LinkedIn que este Código introduce una serie de incertidumbres legales para los desarrolladores de modelos, junto con medidas que se extienden significativamente más allá del alcance de la AI Act. A principios de julio, directores ejecutivos de empresas como Mistral AI, SAP y Siemens, entre otros, emitieron una declaración conjunta solicitando a la UE que pausara la implementación de las regulaciones.

Los defensores de la ley sostienen que servirá para restringir a las empresas de priorizar el beneficio a expensas de la privacidad y seguridad del consumidor. Tanto Mistral como OpenAI han comprometido a firmar el Código de Práctica, un mecanismo voluntario que permite a las empresas demostrar su alineación con las regulaciones vinculantes. OpenAI lanzó recientemente un agente de ChatGPT, que posee la capacidad de utilizar una computadora virtual para ejecutar tareas de múltiples pasos, incluyendo contactar a individuos en pequeñas empresas.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...