El Acta de IA de la UE: Desafíos y Oportunidades

La Ley de IA de la UE: ¿Qué está (y no está) yendo según lo planeado?

La Ley de IA de la UE se establece como la primera gran regulación del mundo centrada exclusivamente en la inteligencia artificial. Su objetivo es asegurar que los sistemas de IA utilizados en Europa sean seguros, justos y respeten los derechos de las personas. Sin embargo, a medida que las reglas comienzan a tomar forma, muchas empresas—especialmente startups y pequeñas empresas—se preguntan: ¿cuál es el estado actual y qué debemos hacer para prepararnos?

Estado de implementación

Según la Comisión Europea, la Ley de IA entró oficialmente en vigor el 1 de agosto de 2024, pero se desplegará en fases. A partir del 2 de febrero de 2025, las primeras disposiciones, como las prohibiciones sobre ciertas prácticas inaceptables de IA y la obligación de promover la alfabetización en IA, entrarán en vigor. El marco de gobernanza y las reglas para los modelos de IA de propósito general comenzarán a aplicarse el 2 de agosto de 2025. La mayoría de la ley, que incluye los requisitos principales para los sistemas de IA de alto riesgo, se aplicará a partir del 2 de agosto de 2026. Para los sistemas de IA de alto riesgo integrados en productos regulados como dispositivos médicos o automóviles, el plazo se extiende hasta el 2 de agosto de 2027.

Normas técnicas

Un nuevo informe ofrece una visión interna sobre cómo se está implementando la Ley de IA, centrándose en una de sus partes más importantes (y complicadas): las normas técnicas. Estas normas son como manuales de instrucciones que explican cómo las empresas pueden cumplir con los requisitos de la ley. Si una empresa las sigue, se supone que está en cumplimiento, lo que las convierte en elementos esenciales para el desarrollo de productos, la certeza legal y el acceso al mercado en la UE.

Desafíos actuales

El informe identifica varios desafíos clave para las empresas que se preparan para cumplir con la ley. Primero, el plazo es ajustado. Tener solo de seis a ocho meses para digerir, implementar y validar docenas de nuevas normas técnicas es una gran preocupación, especialmente para equipos más pequeños sin departamentos legales o de cumplimiento.

En segundo lugar, está el tema de costos. Comprar acceso a todas las normas relevantes puede fácilmente ascender a miles de euros, lo que puede ser una carga seria para startups y pymes. Incluso saber qué normas se aplican a su sistema de IA puede ser un desafío en sí mismo.

Otro gran problema es el acceso a las normas. Hasta hace poco, muchas normas armonizadas no estaban disponibles públicamente, aunque se esperaba que las empresas cumplieran con ellas. Un reciente fallo del Tribunal de Justicia de la UE abordó esto al confirmar que tales normas deben ser de acceso gratuito. Aunque esto es un desarrollo positivo, ha provocado una reacción de los organismos de normalización internacionales que dependen de la venta de acceso a estos documentos.

Finalmente, existe la cuestión de quién tiene voz en el proceso. El proceso de normalización ha estado dominado por grandes empresas tecnológicas y de consultoría, muchas de las cuales están fuera de la UE. Mientras tanto, los actores europeos más pequeños, las instituciones académicas y los grupos de la sociedad civil han luchado por participar debido a limitaciones de tiempo, financiamiento o experiencia. Este desequilibrio podría resultar en normas que reflejen las prioridades de los grandes jugadores de la industria en lugar del ecosistema más amplio de IA.

¿Qué se puede hacer?

Los autores del informe sugieren varias formas de mejorar el proceso:

  • Dar a las empresas más tiempo para cumplir.
  • Hacer que las normas sean de acceso gratuito y más fáciles de entender.
  • Proporcionar ayuda financiera y técnica, especialmente para startups y pymes.
  • Asegurar que un rango más amplio de voces se incluya en la redacción de las normas.
  • Desarrollar herramientas digitales (como «normas inteligentes») para ayudar a automatizar el cumplimiento.

Si estás construyendo o desplegando sistemas de IA en la UE, es importante revisar si tus casos de uso caen bajo la categoría de «alto riesgo» delineada en la Ley de IA. Seguir el proceso de normalización en evolución también es crucial, ya que estos documentos formarán la columna vertebral del cumplimiento futuro.

Por último, es un buen momento para comenzar a pensar en tus procesos internos: ¿Qué tan transparentes son tus modelos? ¿Qué tipo de gobernanza de datos tienes en su lugar? ¿Tus sistemas son probados por sesgos, precisión y ciberseguridad?

More Insights

Construyendo Confianza en la Era de la IA

La inteligencia artificial promete un aumento en la productividad para los mercadólogos, pero solo si se guía por una estrategia clara y supervisión humana. La pregunta no es si usar IA, sino cómo...

Gobernanza en la Nube para la Era de la IA

En la era de la inteligencia artificial, los modelos de gobernanza en la nube deben evolucionar para mantener el ritmo de la innovación. La gobernanza debe ser preventiva y estar integrada en la...

Guía para la Gobernanza de IA en Juntas Directivas

Con la inteligencia artificial (IA) convirtiéndose en una parte clave de los negocios modernos, la Confederación de la Industria India (CII) lanzó un nuevo manual para ayudar a los consejos de...

DevSecOps Potenciado por IA: Retos y Oportunidades en un Mundo de Cero Confianza

La rápida adopción de la automatización impulsada por IA en DevSecOps presenta tanto oportunidades como desafíos, ya que la dependencia excesiva de la automatización puede crear puntos ciegos en la...

Centro Cyril Shroff: La Vanguardia en Regulación de IA y Derecho

En un desarrollo pionero, Cyril Amarchand Mangaldas y la Universidad Global O.P. Jindal han anunciado el establecimiento del Centro Cyril Shroff para la IA, la Ley y la Regulación en la Escuela de...

Darwin Lanza una Herramienta Gratuita para Simplificar la Gobernanza de IA en Agencias Públicas

Darwin ha lanzado su AI Policy Wizard, una herramienta gratuita e interactiva diseñada para ayudar a los gobiernos locales y agencias públicas a crear políticas de IA prácticas y personalizadas. Esta...

Restaurando la Confianza en la IA a Través de la Gobernanza

Ulla Coester, directora de proyectos en la Universidad Fresenius de Ciencias Aplicadas, enfatiza que la gobernanza debe adaptarse al comportamiento para construir confianza en la IA. Es crucial que...

Cultura como Pilar de la IA Confiable

Este informe analiza cómo la gobernanza inclusiva de la inteligencia artificial (IA) es crucial para permitir que las voces pasadas por alto participen en el acceso y desarrollo de la IA. Además, se...

Cumplimiento de derechos de autor en la Ley de IA de la UE

Un desafío clave en el entrenamiento de modelos de inteligencia artificial generativa es garantizar el cumplimiento de las leyes de derechos de autor. La Ley de IA de la UE refuerza la necesidad de...