La Ley de IA de la UE: ¿Qué está (y no está) yendo según lo planeado?
La Ley de IA de la UE se establece como la primera gran regulación del mundo centrada exclusivamente en la inteligencia artificial. Su objetivo es asegurar que los sistemas de IA utilizados en Europa sean seguros, justos y respeten los derechos de las personas. Sin embargo, a medida que las reglas comienzan a tomar forma, muchas empresas—especialmente startups y pequeñas empresas—se preguntan: ¿cuál es el estado actual y qué debemos hacer para prepararnos?
Estado de implementación
Según la Comisión Europea, la Ley de IA entró oficialmente en vigor el 1 de agosto de 2024, pero se desplegará en fases. A partir del 2 de febrero de 2025, las primeras disposiciones, como las prohibiciones sobre ciertas prácticas inaceptables de IA y la obligación de promover la alfabetización en IA, entrarán en vigor. El marco de gobernanza y las reglas para los modelos de IA de propósito general comenzarán a aplicarse el 2 de agosto de 2025. La mayoría de la ley, que incluye los requisitos principales para los sistemas de IA de alto riesgo, se aplicará a partir del 2 de agosto de 2026. Para los sistemas de IA de alto riesgo integrados en productos regulados como dispositivos médicos o automóviles, el plazo se extiende hasta el 2 de agosto de 2027.
Normas técnicas
Un nuevo informe ofrece una visión interna sobre cómo se está implementando la Ley de IA, centrándose en una de sus partes más importantes (y complicadas): las normas técnicas. Estas normas son como manuales de instrucciones que explican cómo las empresas pueden cumplir con los requisitos de la ley. Si una empresa las sigue, se supone que está en cumplimiento, lo que las convierte en elementos esenciales para el desarrollo de productos, la certeza legal y el acceso al mercado en la UE.
Desafíos actuales
El informe identifica varios desafíos clave para las empresas que se preparan para cumplir con la ley. Primero, el plazo es ajustado. Tener solo de seis a ocho meses para digerir, implementar y validar docenas de nuevas normas técnicas es una gran preocupación, especialmente para equipos más pequeños sin departamentos legales o de cumplimiento.
En segundo lugar, está el tema de costos. Comprar acceso a todas las normas relevantes puede fácilmente ascender a miles de euros, lo que puede ser una carga seria para startups y pymes. Incluso saber qué normas se aplican a su sistema de IA puede ser un desafío en sí mismo.
Otro gran problema es el acceso a las normas. Hasta hace poco, muchas normas armonizadas no estaban disponibles públicamente, aunque se esperaba que las empresas cumplieran con ellas. Un reciente fallo del Tribunal de Justicia de la UE abordó esto al confirmar que tales normas deben ser de acceso gratuito. Aunque esto es un desarrollo positivo, ha provocado una reacción de los organismos de normalización internacionales que dependen de la venta de acceso a estos documentos.
Finalmente, existe la cuestión de quién tiene voz en el proceso. El proceso de normalización ha estado dominado por grandes empresas tecnológicas y de consultoría, muchas de las cuales están fuera de la UE. Mientras tanto, los actores europeos más pequeños, las instituciones académicas y los grupos de la sociedad civil han luchado por participar debido a limitaciones de tiempo, financiamiento o experiencia. Este desequilibrio podría resultar en normas que reflejen las prioridades de los grandes jugadores de la industria en lugar del ecosistema más amplio de IA.
¿Qué se puede hacer?
Los autores del informe sugieren varias formas de mejorar el proceso:
- Dar a las empresas más tiempo para cumplir.
- Hacer que las normas sean de acceso gratuito y más fáciles de entender.
- Proporcionar ayuda financiera y técnica, especialmente para startups y pymes.
- Asegurar que un rango más amplio de voces se incluya en la redacción de las normas.
- Desarrollar herramientas digitales (como «normas inteligentes») para ayudar a automatizar el cumplimiento.
Si estás construyendo o desplegando sistemas de IA en la UE, es importante revisar si tus casos de uso caen bajo la categoría de «alto riesgo» delineada en la Ley de IA. Seguir el proceso de normalización en evolución también es crucial, ya que estos documentos formarán la columna vertebral del cumplimiento futuro.
Por último, es un buen momento para comenzar a pensar en tus procesos internos: ¿Qué tan transparentes son tus modelos? ¿Qué tipo de gobernanza de datos tienes en su lugar? ¿Tus sistemas son probados por sesgos, precisión y ciberseguridad?