Guías de la UE sobre el uso de IA enfrentan críticas masivas
La publicación del Código de Conducta de la UE sobre el uso de la IA, como complemento a la Ley de IA de la UE, ha desatado una ola de críticas provenientes de diversas partes interesadas, justo cuando se aproxima la fecha límite de implementación.
El Código de Práctica
El Código de Práctica para la IA de Propósito General (GPAI Code of Practice) representa el primer esfuerzo de la UE por regular la IA general. Este código tiene como objetivo simplificar el cumplimiento de la Ley de IA de la UE. Las guías entrarán en vigor el 2 de agosto de 2025, y se espera que su implementación práctica inicie en 2026. Sin embargo, estas directrices no están exentas de controversia, recibiendo críticas de grupos de presión, directores ejecutivos y ONG.
Capítulos del Código de Práctica
El Código de Práctica se compone de tres capítulos: Transparencia, Derechos de Autor, y Seguridad y Protección.
- Capítulo de Transparencia: Proporciona una plantilla amigable para la documentación, permitiendo a los proveedores documentar la información necesaria para cumplir con las obligaciones de transparencia establecidas en la Ley de IA.
- Capítulo de Derechos de Autor: Ofrece soluciones prácticas para que los proveedores cumplan con la obligación de desarrollar una estrategia que respete la legislación de derechos de autor de la UE.
- Sección de Seguridad y Protección: Describe prácticas avanzadas para abordar riesgos sistémicos, aplicables solo a los proveedores de modelos de IA de propósito general que presentan riesgos sistémicos.
Críticas de Bitkom
La asociación digital alemana Bitkom ha sido relativamente diplomática en su crítica al Código de Práctica, viéndolo como una oportunidad para crear certeza legal en el desarrollo de la IA en Europa. Sin embargo, advierte que “el Código de Práctica no debe convertirse en un freno para la posición de Europa en IA.” Además, señala la necesidad de mejorar los requisitos de auditoría, que son considerados demasiado amplios y vagamente redactados.
Opiniones de CEOs de la UE
Más de 45 altos ejecutivos han expresado su preocupación en una carta abierta a la UE, advirtiendo sobre la complejidad en la regulación de la IA y el riesgo de perder competitividad. Estos directores solicitan que la implementación de la Ley de IA de la UE se posponga dos años.
Demandas de SAP y Siemens
Los CEOs de Siemens y SAP han llamado a una revisión fundamental de la Ley de IA, pidiendo un nuevo marco que fomente la innovación en lugar de obstaculizarla. Para ellos, la ley en su forma actual es “tóxica para el desarrollo de modelos de negocio digitales.”
Perspectiva de las ONG
La ONG The Future Society también ha criticado las nuevas directrices, señalando que los proveedores tecnológicos estadounidenses lograron debilitar puntos clave en sesiones cerradas. Este enfoque puede poner en desventaja a los ciudadanos y empresas europeos, limitando oportunidades para fortalecer la seguridad y la responsabilidad a nivel mundial.
Puntos críticos destacados
The Future Society ha identificado cuatro puntos críticos en las nuevas directrices:
- Información tardía al AI Office: La oficina de IA solo recibe información importante después del lanzamiento del producto, lo que podría permitir que modelos peligrosos lleguen a los usuarios sin control.
- Protección de denunciantes: La falta de protección efectiva para denunciantes internos es preocupante, dado que es crucial en industrias impulsadas por el mercado.
- Planes obligatorios para emergencias: No se requieren protocolos de emergencia, algo que es estándar en otras áreas de alto riesgo.
- Poder de decisión en gestión de riesgos: Los proveedores tienen la capacidad de identificar riesgos y definir umbrales, lo que podría resultar problemático.
Estas críticas subrayan la necesidad de un enfoque equilibrado que asegure la innovación sin comprometer la seguridad y los derechos de los ciudadanos europeos.