El Plan de Acción de IA de la UE Enfrenta Brechas en Privacidad y Normas de Cumplimiento
La Comisión Europea presentó su Plan de Acción de IA el 9 de abril de 2025, delineando una estrategia industrial para impulsar las capacidades de IA en toda la UE. Este plan se centra en construir infraestructura de computación, hacer que los datos de alta calidad sean más accesibles, apoyar la adopción en diversos sectores y desarrollar talento en IA.
En la superficie, las visiones públicas y privadas parecen alinearse. Sin embargo, al compararse con los marcos legales de la UE, especialmente con la Ley de IA y el Reglamento General de Protección de Datos (GDPR), se destacan serias brechas en las políticas.
El Enfoque en Infraestructura, Pero con Ejecución Vaga
La Comisión desea aumentar la capacidad de computación de Europa a través de Fábricas de IA y grandes Gigafábricas, cada una diseñada para albergar 100,000 chips de IA de alta gama. Estas instalaciones están destinadas a apoyar a startups de IA y comunidades de investigación en toda la Unión. La iniciativa InvestAI, con un presupuesto de 20 mil millones de euros, financiará este esfuerzo.
OpenAI también propone un aumento significativo en la capacidad de computación, buscando un incremento del 300% para 2030, vinculado explícitamente a la energía limpia y la sostenibilidad. Sin embargo, el Plan de Acción aún no detalla cómo estas Gigafábricas, que manejan grandes cantidades de datos, gestionarán su consumo energético ni proporciona un cronograma para sus implementaciones.
En comparación, India ha comenzado a desarrollar infraestructura pública de IA bajo la misión IndiaAI, aunque no ha delineado un plan nacional de computación ni nada del tamaño de las Gigafábricas. Esta planificación de capacidad a gran escala sigue siendo un aspecto ausente.
Los Objetivos de Acceso a Datos Conflictan con Normas de Privacidad Existentes
Tanto el Plan de Acción como OpenAI coinciden en que el acceso a datos utilizables y de alta calidad es crítico. La Comisión pretende construir Laboratorios de Datos y lanzar una Estrategia de Unión de Datos para reunir conjuntos de datos de diferentes sectores. OpenAI propone Espacios de Datos de IA que equilibran la utilidad con la privacidad y la claridad legal.
Sin embargo, el problema radica en que el GDPR actualizado aún impone fuertes restricciones sobre cómo se pueden reutilizar los datos, especialmente los datos personales. Incluso los datos anonimizados conllevan incertidumbre legal, dependiendo de cómo se manejen. El Plan de Acción no explica cómo estas nuevas iniciativas de datos se ajustarán a las normas de privacidad existentes, y no hay un puente legal a la vista.
En el caso de India, aunque la Ley de Protección de Datos Personales Digitales presenta menos barreras para la reutilización de datos anonimizados, aún no existe un marco real para el acceso estructurado a los datos de IA desde fuentes públicas o sectoriales.
Falta un Camino Claro Entre la Ley de IA y el GDPR
En la actualidad, la Ley de IA y el GDPR operan en paralelo, pero no se conectan realmente. La Ley de IA se centra en regular sistemas de IA de alto riesgo, mientras que el GDPR se ocupa de cómo se utilizan los datos personales, incluyendo el perfilado impulsado por IA y las decisiones automatizadas. Para los desarrolladores que construyen sistemas que caen bajo ambas regulaciones, no hay una guía clara sobre cómo cumplir con ambos conjuntos de normas.
Esta falta de coordinación dificulta el cumplimiento y añade incertidumbre para aquellos que intentan operar en toda la UE.
Se Mencionan Startups, Pero el Apoyo Sigue siendo Limitado
Tanto el Plan de Acción como las reformas del GDPR hablan de aliviar la carga sobre las pequeñas empresas. Se prometen «cumplimientos simplificados» y reducción de la burocracia para las PYMES. Sin embargo, en la práctica, estos apoyos se limitan mayormente a documentación y mesas de ayuda, en lugar de financiamiento o asistencia legal.
OpenAI señala que para las startups, especialmente aquellas que construyen modelos de alto riesgo o fundamentales, estos tipos de apoyos son raramente suficientes. Propone un apoyo legal dedicado y un acceso más fácil a financiamiento público para que sea viable para los jugadores más pequeños operar en entornos regulados.
Los Modelos Fundamentales No se Ajustan al Modelo Legal Actual
La Ley de IA clasifica los sistemas de IA según su nivel de riesgo en el momento de su creación. Esto no funciona bien para los modelos fundamentales, que son de propósito general y evolucionan según cómo las personas los ajustan o implementan. Estos modelos pueden volverse de alto riesgo después de su implementación, pero la ley no contempla eso.
OpenAI aboga por una regulación adaptativa y entornos de sandbox que permitan a los responsables de políticas monitorear estos modelos a medida que se utilizan. Sin embargo, el Plan de Acción y la revisión del GDPR no abordan este problema en absoluto.
Por Qué Esto Es Importante
La Comisión Europea y OpenAI tienen una visión clara sobre cómo debería ser el desarrollo de la IA en Europa. Coinciden en la necesidad de infraestructura, acceso a datos y la importancia de una regulación responsable. Sin embargo, esta alineación aún no se ha traducido en el marco legal.
Las brechas en la aplicación, las normas de privacidad que chocan con la innovación y la falta de una forma clara de regular los modelos fundamentales dificultan la implementación de los planes de IA de la UE. Para India y otros países que aún están desarrollando políticas de IA, esto es un recordatorio de lo que sucede cuando la infraestructura y la regulación se desarrollan de manera aislada.
Nota: El título y el cuarto párrafo fueron editados para mayor claridad basándose en aportes editoriales el 14/04/2025 a las 3:03 p.m.