Críticas al Código de Conducta de la UE sobre el Uso de IA

Guías de la UE sobre el uso de IA enfrentan críticas masivas

La publicación del Código de Conducta de la UE sobre el uso de la IA, como complemento a la Ley de IA de la UE, ha desatado una ola de críticas provenientes de diversas partes interesadas, justo cuando se aproxima la fecha límite de implementación.

El Código de Práctica

El Código de Práctica para la IA de Propósito General (GPAI Code of Practice) representa el primer esfuerzo de la UE por regular la IA general. Este código tiene como objetivo simplificar el cumplimiento de la Ley de IA de la UE. Las guías entrarán en vigor el 2 de agosto de 2025, y se espera que su implementación práctica inicie en 2026. Sin embargo, estas directrices no están exentas de controversia, recibiendo críticas de grupos de presión, directores ejecutivos y ONG.

Capítulos del Código de Práctica

El Código de Práctica se compone de tres capítulos: Transparencia, Derechos de Autor, y Seguridad y Protección.

  • Capítulo de Transparencia: Proporciona una plantilla amigable para la documentación, permitiendo a los proveedores documentar la información necesaria para cumplir con las obligaciones de transparencia establecidas en la Ley de IA.
  • Capítulo de Derechos de Autor: Ofrece soluciones prácticas para que los proveedores cumplan con la obligación de desarrollar una estrategia que respete la legislación de derechos de autor de la UE.
  • Sección de Seguridad y Protección: Describe prácticas avanzadas para abordar riesgos sistémicos, aplicables solo a los proveedores de modelos de IA de propósito general que presentan riesgos sistémicos.

Críticas de Bitkom

La asociación digital alemana Bitkom ha sido relativamente diplomática en su crítica al Código de Práctica, viéndolo como una oportunidad para crear certeza legal en el desarrollo de la IA en Europa. Sin embargo, advierte que “el Código de Práctica no debe convertirse en un freno para la posición de Europa en IA.” Además, señala la necesidad de mejorar los requisitos de auditoría, que son considerados demasiado amplios y vagamente redactados.

Opiniones de CEOs de la UE

Más de 45 altos ejecutivos han expresado su preocupación en una carta abierta a la UE, advirtiendo sobre la complejidad en la regulación de la IA y el riesgo de perder competitividad. Estos directores solicitan que la implementación de la Ley de IA de la UE se posponga dos años.

Demandas de SAP y Siemens

Los CEOs de Siemens y SAP han llamado a una revisión fundamental de la Ley de IA, pidiendo un nuevo marco que fomente la innovación en lugar de obstaculizarla. Para ellos, la ley en su forma actual es “tóxica para el desarrollo de modelos de negocio digitales.”

Perspectiva de las ONG

La ONG The Future Society también ha criticado las nuevas directrices, señalando que los proveedores tecnológicos estadounidenses lograron debilitar puntos clave en sesiones cerradas. Este enfoque puede poner en desventaja a los ciudadanos y empresas europeos, limitando oportunidades para fortalecer la seguridad y la responsabilidad a nivel mundial.

Puntos críticos destacados

The Future Society ha identificado cuatro puntos críticos en las nuevas directrices:

  • Información tardía al AI Office: La oficina de IA solo recibe información importante después del lanzamiento del producto, lo que podría permitir que modelos peligrosos lleguen a los usuarios sin control.
  • Protección de denunciantes: La falta de protección efectiva para denunciantes internos es preocupante, dado que es crucial en industrias impulsadas por el mercado.
  • Planes obligatorios para emergencias: No se requieren protocolos de emergencia, algo que es estándar en otras áreas de alto riesgo.
  • Poder de decisión en gestión de riesgos: Los proveedores tienen la capacidad de identificar riesgos y definir umbrales, lo que podría resultar problemático.

Estas críticas subrayan la necesidad de un enfoque equilibrado que asegure la innovación sin comprometer la seguridad y los derechos de los ciudadanos europeos.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...