Boletín del Acta de IA de la UE #77: Licitación de la Oficina de IA
Fecha de creación: 11 de junio de 2025 7:05 AM
Bienvenido al Boletín del Acta de IA de la UE, un breve boletín quincenal que proporciona información actualizada sobre los desarrollos y análisis de la legislación de inteligencia artificial de la UE.
Proceso Legislativo
Licitación de seguridad de IA de la Oficina de IA: La Oficina de IA pronto buscará contratistas externos para proporcionar asistencia técnica destinada a apoyar la supervisión del cumplimiento, en particular en su evaluación de los riesgos que plantean los modelos de IA de propósito general a nivel de la Unión, tal como lo autoriza los Artículos 89, 92 y 93 del Acta de IA. La licitación de €9,080,000 se divide en seis lotes. Cinco lotes abordan riesgos sistémicos específicos: 1) CBRN, 2) ofensa cibernética, 3) pérdida de control, 4) manipulación perjudicial y 5) riesgos sociotécnicos. Estos lotes involucran talleres de modelado de riesgos, desarrollo de herramientas de evaluación, creación de un procedimiento de referencia y plantilla de informes para la evaluación de riesgos, y servicios de monitoreo de riesgos en curso. El sexto lote se centra en la interfaz de evaluación agente, proporcionando software e infraestructura para evaluar la IA de propósito general a través de diversos parámetros de referencia. Las partes interesadas pueden inscribirse para recibir notificaciones sobre más detalles relacionados con esta licitación.
Análisis
Cómo las grandes empresas tecnológicas debilitan las normas sobre IA avanzada: Según una investigación de Corporate Europe Observatory y LobbyControl, las grandes empresas tecnológicas han influido significativamente en el debilitamiento del Código de Práctica para modelos de IA de propósito general, una herramienta clave para la implementación del Acta de IA. A pesar de las quejas de Google sobre que los desarrolladores de modelos están «fuertemente superados por otros interesados», estas empresas tecnológicas disfrutaron de acceso privilegiado al proceso de redacción. Casi la mitad de las organizaciones invitadas a talleres dedicados a proveedores de modelos eran empresas estadounidenses, incluidas Google, Microsoft, Meta, Apple, Amazon y firmas de IA bien financiadas como OpenAI, Anthropic y Hugging Face. Mientras tanto, las 350 organizaciones que representan a la sociedad civil, académicos y empresas europeas enfrentaron una participación restringida y una limitada transparencia sobre las discusiones de los talleres de proveedores. Los gigantes tecnológicos estadounidenses coordinaron mensajes alegando que el Código representaba un «exceso regulatorio» que «ahogaría la innovación», una retórica alineada con las tendencias políticas de desregulación. Las grandes empresas tecnológicas han logrado utilizar al gobierno de EE. UU. para oponerse a las normas digitales de la UE, incluso con la orden ejecutiva de la administración Trump que amenazaba aranceles contra los países que multaran a las empresas tecnológicas estadounidenses y la Misión de EE. UU. ante la UE presionando a la Comisión sobre el Código de Práctica.
Las empresas estadounidenses siguen involucrándose con el Código a pesar de Trump: Cynthia Kroet de Euronews informó que las empresas tecnológicas estadounidenses siguen siendo «muy proactivas» en el proceso de desarrollo del Código de Práctica, sin un cambio de actitud percibido tras el cambio de administración estadounidense, según un funcionario de la Oficina de IA que habló con Euronews. El Código, diseñado para ayudar a los proveedores de IA de propósito general a cumplir con el Acta de IA, no logró cumplir con su plazo de publicación del 2 de mayo. La Comisión extendió las consultas tras recibir múltiples solicitudes de las partes interesadas para mantener el compromiso más allá del plazo original. Con aproximadamente 1,000 participantes involucrados a través de sesiones plenarias y talleres, el proceso de redacción continúa bajo trece expertos designados. La Comisión de la UE espera publicarlo antes del 2 de agosto, cuando entren en vigor las normas relevantes del Acta de IA. Las recientes alegaciones de cabildeo por parte de Corporate Europe Observatory y LobbyControl sugieren que las grandes empresas tecnológicas disfrutaron de ventajas estructurales durante la redacción, aunque la Comisión mantiene que todos los participantes tuvieron oportunidades de participación equitativas. El funcionario de la UE no pudo decir si parece probable que las empresas firmen, pero enfatizó que es importante que lo hagan. Una opción alternativa, donde las empresas se comprometen solo a partes específicas del Código, aún no se ha planteado.
La ejecución se ve obstaculizada por la falta de financiamiento y experiencia: Tonya Riley, reportera de privacidad de Bloomberg Law, informó que las limitaciones financieras y la escasez de talento desafiarán la ejecución del Acta de IA, según el asesor de política digital del Parlamento Europeo, Kai Zenner. Hablando en una conferencia de la Universidad George Washington, Zenner destacó que «la mayoría de los estados miembros están casi en quiebra» y están perdiendo experiencia técnica ante empresas tecnológicas que pagan mejor. «Esta combinación de falta de financiamiento y también falta de talento será realmente uno de los principales desafíos», afirmó Zenner, señalando que los reguladores necesitan «expertos reales» para supervisar eficazmente a las empresas de IA. Con el plazo del 2 de agosto de 2025 acercándose para designar a las autoridades de aplicación nacionales, Zenner sugirió que los estados miembros que enfrentan crisis presupuestarias pueden priorizar la innovación en IA sobre la regulación. Incluso los países financieramente estables pueden dudar en hacer cumplir contra las empresas de IA en las que están invirtiendo para el crecimiento económico. Zenner, quien ayudó a redactar el Acta, expresó su decepción con la versión final, calificándola de «vaga» y «contradictoria», cuestionando si funcionaría sin obstaculizar la innovación.
Italia y Hungría no logran nombrar organismos de derechos fundamentales: Cynthia Kroet de Euronews informó que Italia y Hungría no han cumplido con el plazo de noviembre de 2024 para nombrar organismos que aseguren la protección de los derechos fundamentales en la implementación de la IA, según datos de la Comisión Europea. La Comisión está actualmente en contacto con ambos estados miembros y los está apoyando mientras se preparan para cumplir con esta obligación. Los 27 estados miembros de la UE estaban obligados a identificar y listar públicamente las autoridades responsables antes del 2 de noviembre de 2024 bajo el Acta de IA. El número de autoridades nombradas varía significativamente entre los estados miembros según los enfoques de implementación nacional. Bulgaria enumeró nueve autoridades, incluyendo su Defensor del Pueblo y la Autoridad de Protección de Datos, mientras que Portugal identificó 14 organismos. Eslovaquia nombró solo dos autoridades, mientras que España designó 22. La Comisión está trabajando con los estados miembros para establecer un entendimiento consistente de las autoridades apropiadas y garantizar una cooperación efectiva entre estos organismos públicos y las futuras autoridades de vigilancia del mercado.
Korea vs legislación de IA de la UE: Sakshi Shivhare, asociada de políticas para Asia-Pacífico en el Future of Privacy Forum, y Kwang Bae Park, socio de Lee & Ko, publicaron una comparación de la Ley de Marco de IA de Corea del Sur y el Acta de IA de la UE. Mientras que ambos marcos emplean clasificación por niveles y requisitos de transparencia, el enfoque de Corea del Sur difiere en varias áreas. La Ley de Marco presenta una categorización de riesgos simplificada, incluyendo la ausencia de prácticas de IA prohibidas, sanciones financieras más bajas y el establecimiento de iniciativas y organismos gubernamentales diseñados específicamente para promover el desarrollo y la implementación de la IA. Comprender estas similitudes y diferencias es esencial para desarrollar estrategias de cumplimiento global, especialmente dado que muchas empresas tecnológicas deben navegar simultáneamente ambos marcos regulatorios.