Críticas al Código de Conducta de la UE sobre el Uso de IA

Guías de la UE sobre el uso de IA enfrentan críticas masivas

La publicación del Código de Conducta de la UE sobre el uso de la IA, como complemento a la Ley de IA de la UE, ha desatado una ola de críticas provenientes de diversas partes interesadas, justo cuando se aproxima la fecha límite de implementación.

El Código de Práctica

El Código de Práctica para la IA de Propósito General (GPAI Code of Practice) representa el primer esfuerzo de la UE por regular la IA general. Este código tiene como objetivo simplificar el cumplimiento de la Ley de IA de la UE. Las guías entrarán en vigor el 2 de agosto de 2025, y se espera que su implementación práctica inicie en 2026. Sin embargo, estas directrices no están exentas de controversia, recibiendo críticas de grupos de presión, directores ejecutivos y ONG.

Capítulos del Código de Práctica

El Código de Práctica se compone de tres capítulos: Transparencia, Derechos de Autor, y Seguridad y Protección.

  • Capítulo de Transparencia: Proporciona una plantilla amigable para la documentación, permitiendo a los proveedores documentar la información necesaria para cumplir con las obligaciones de transparencia establecidas en la Ley de IA.
  • Capítulo de Derechos de Autor: Ofrece soluciones prácticas para que los proveedores cumplan con la obligación de desarrollar una estrategia que respete la legislación de derechos de autor de la UE.
  • Sección de Seguridad y Protección: Describe prácticas avanzadas para abordar riesgos sistémicos, aplicables solo a los proveedores de modelos de IA de propósito general que presentan riesgos sistémicos.

Críticas de Bitkom

La asociación digital alemana Bitkom ha sido relativamente diplomática en su crítica al Código de Práctica, viéndolo como una oportunidad para crear certeza legal en el desarrollo de la IA en Europa. Sin embargo, advierte que “el Código de Práctica no debe convertirse en un freno para la posición de Europa en IA.” Además, señala la necesidad de mejorar los requisitos de auditoría, que son considerados demasiado amplios y vagamente redactados.

Opiniones de CEOs de la UE

Más de 45 altos ejecutivos han expresado su preocupación en una carta abierta a la UE, advirtiendo sobre la complejidad en la regulación de la IA y el riesgo de perder competitividad. Estos directores solicitan que la implementación de la Ley de IA de la UE se posponga dos años.

Demandas de SAP y Siemens

Los CEOs de Siemens y SAP han llamado a una revisión fundamental de la Ley de IA, pidiendo un nuevo marco que fomente la innovación en lugar de obstaculizarla. Para ellos, la ley en su forma actual es “tóxica para el desarrollo de modelos de negocio digitales.”

Perspectiva de las ONG

La ONG The Future Society también ha criticado las nuevas directrices, señalando que los proveedores tecnológicos estadounidenses lograron debilitar puntos clave en sesiones cerradas. Este enfoque puede poner en desventaja a los ciudadanos y empresas europeos, limitando oportunidades para fortalecer la seguridad y la responsabilidad a nivel mundial.

Puntos críticos destacados

The Future Society ha identificado cuatro puntos críticos en las nuevas directrices:

  • Información tardía al AI Office: La oficina de IA solo recibe información importante después del lanzamiento del producto, lo que podría permitir que modelos peligrosos lleguen a los usuarios sin control.
  • Protección de denunciantes: La falta de protección efectiva para denunciantes internos es preocupante, dado que es crucial en industrias impulsadas por el mercado.
  • Planes obligatorios para emergencias: No se requieren protocolos de emergencia, algo que es estándar en otras áreas de alto riesgo.
  • Poder de decisión en gestión de riesgos: Los proveedores tienen la capacidad de identificar riesgos y definir umbrales, lo que podría resultar problemático.

Estas críticas subrayan la necesidad de un enfoque equilibrado que asegure la innovación sin comprometer la seguridad y los derechos de los ciudadanos europeos.

More Insights

Sistema de Gestión de Riesgos en la Ley de IA de la UE

La Ley de Inteligencia Artificial (IA) de la Unión Europea establece un marco de regulación para los sistemas de IA de alto riesgo, destacando la importancia de un Sistema de Gestión de Riesgos. Este...

Riesgos Ocultos de los Agentes de IA en la Gobernanza

La gobernanza específica para la inteligencia artificial es necesaria para garantizar que las herramientas se implementen de manera responsable y generen valor sostenible. Las empresas deben ser...

Consideraciones Clave para Cumplir con la Ley de IA de la UE antes de Agosto de 2025

El Acta de Inteligencia Artificial de la Unión Europea establece un marco legal integral para el uso y desarrollo de la inteligencia artificial, vinculando los requisitos regulatorios al riesgo...

Gobernanza de la IA: Desafíos y Oportunidades

Estamos firmemente inmersos en la era de las máquinas inteligentes, donde la inteligencia artificial (IA) ha pasado de ser una simple herramienta a un disruptor estratégico. A medida que la IA se...

Texas Establece un Nuevo Modelo de Regulación de IA

El gobernador de Texas, Greg Abbott, firmó el mes pasado la Ley de Gobernanza de Inteligencia Artificial Responsable de Texas (TRAIGA), convirtiéndose en el segundo estado en adoptar una ley integral...

Falta de financiamiento para la regulación de IA en organismos públicos

No se han asignado fondos adicionales hasta ahora a los nueve organismos públicos que recibirán poderes adicionales para hacer cumplir la Ley de IA de la UE. Sin recursos adicionales, los organismos...