La Ley de IA de la UE está a punto de entrar en plena vigencia
La Unión Europea implementó su AI Act el año pasado, lanzando directrices para garantizar el cumplimiento y equilibrar la innovación en inteligencia artificial con la seguridad. Esto culminó en el lanzamiento del AI Act Explorer el 18 de julio, una guía integral para las empresas que navegan por estas regulaciones.
La AI Act se estableció para introducir salvaguardias para modelos avanzados de inteligencia artificial, mientras se cultiva un ecosistema competitivo e innovador para las empresas de IA. Esta ley clasifica los modelos en distintas categorías de riesgo. La Vicepresidenta Ejecutiva de la Comisión de la UE para la Soberanía Tecnológica, Seguridad y Democracia, Henna Virkkunen, declaró que las directrices emitidas por la Comisión apoyan la aplicación fluida y efectiva de la AI Act.
Categorización de Riesgos
Bajo el marco regulatorio de la ley de la UE, los modelos de inteligencia artificial se clasifican en uno de cuatro niveles de riesgo distintos: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo. Los AI clasificados en la categoría de riesgo inaceptable enfrentan una prohibición dentro de la UE. Esta clasificación incluye aplicaciones como sistemas de reconocimiento facial y mecanismos de puntuación social. Otras categorías se determinan por la capacidad computacional de la IA o sus funcionalidades designadas.
AI con Riesgos Sistémicos
La Unión Europea define los modelos de inteligencia artificial que presentan riesgos sistémicos como aquellos desarrollados utilizando “más de 10^25 operaciones de punto flotante (FLOPs)”. Modelos notables que caen bajo esta clasificación incluyen GPT-4 de OpenAI, o3 de OpenAI, Google Gemini 2.5 Pro, y los modelos más recientes de Claude de Anthropic, así como Grok-3 de xAI. La publicación de la guía del AI Act Explorer precede la fecha límite del 2 de agosto por aproximadamente dos semanas, la cual exige que los modelos de IA de propósito general y aquellos identificados como que suponen riesgos sistémicos cumplan con las disposiciones de la ley.
Obligaciones de los Fabricantes
Los fabricantes de modelos de IA identificados como que presentan riesgos sistémicos están sujetos a obligaciones específicas. Estas incluyen realizar evaluaciones exhaustivas del modelo para identificar posibles riesgos sistémicos y documentar las pruebas adversariales realizadas durante la mitigación de tales riesgos. Además, se requiere que estos fabricantes informen sobre incidentes graves a las oficinas de la UE y nacionales si tales ocurrencias se materializan. También deben implementar medidas adecuadas de ciberseguridad para protegerse contra el uso indebido o la compromisión de sus sistemas de IA. La ley coloca de manera integral la responsabilidad sobre las empresas de IA para identificar y prevenir proactivamente los riesgos sistémicos potenciales desde su origen.
El AI Act Explorer
El AI Act Explorer ha sido diseñado para proporcionar a los desarrolladores de inteligencia artificial directrices explícitas sobre la aplicabilidad de las diversas disposiciones de la ley a sus operaciones. Las empresas también tienen acceso al compliance checker de la UE, una herramienta que les permite determinar sus obligaciones específicas bajo la ley. El incumplimiento de las estipulaciones de la ley puede resultar en sanciones financieras sustanciales. Las multas oscilan entre 7.5 millones de euros, equivalentes a 8.7 millones de dólares, o el 1.5% de la facturación global de una empresa, hasta un máximo de 35 millones de euros, o el 7% de la facturación global, siendo la cantidad específica contingente a la gravedad de la violación.
Críticas y Apoyos
Los críticos de la AI Act han caracterizado sus regulaciones como inconsistentes y han afirmado que inhiben la innovación. El 18 de julio, Joel Kaplan, Jefe de Asuntos Globales de Meta, declaró que la empresa no respaldaría el Código de Práctica de la UE para modelos de IA de propósito general, que es un marco voluntario alineado con la AI Act. Kaplan afirmó en LinkedIn que este Código introduce una serie de incertidumbres legales para los desarrolladores de modelos, junto con medidas que se extienden significativamente más allá del alcance de la AI Act. A principios de julio, directores ejecutivos de empresas como Mistral AI, SAP y Siemens, entre otros, emitieron una declaración conjunta solicitando a la UE que pausara la implementación de las regulaciones.
Los defensores de la ley sostienen que servirá para restringir a las empresas de priorizar el beneficio a expensas de la privacidad y seguridad del consumidor. Tanto Mistral como OpenAI han comprometido a firmar el Código de Práctica, un mecanismo voluntario que permite a las empresas demostrar su alineación con las regulaciones vinculantes. OpenAI lanzó recientemente un agente de ChatGPT, que posee la capacidad de utilizar una computadora virtual para ejecutar tareas de múltiples pasos, incluyendo contactar a individuos en pequeñas empresas.