Críticas al Código de Conducta de la UE sobre el Uso de IA

Guías de la UE sobre el uso de IA enfrentan críticas masivas

La publicación del Código de Conducta de la UE sobre el uso de la IA, como complemento a la Ley de IA de la UE, ha desatado una ola de críticas provenientes de diversas partes interesadas, justo cuando se aproxima la fecha límite de implementación.

El Código de Práctica

El Código de Práctica para la IA de Propósito General (GPAI Code of Practice) representa el primer esfuerzo de la UE por regular la IA general. Este código tiene como objetivo simplificar el cumplimiento de la Ley de IA de la UE. Las guías entrarán en vigor el 2 de agosto de 2025, y se espera que su implementación práctica inicie en 2026. Sin embargo, estas directrices no están exentas de controversia, recibiendo críticas de grupos de presión, directores ejecutivos y ONG.

Capítulos del Código de Práctica

El Código de Práctica se compone de tres capítulos: Transparencia, Derechos de Autor, y Seguridad y Protección.

  • Capítulo de Transparencia: Proporciona una plantilla amigable para la documentación, permitiendo a los proveedores documentar la información necesaria para cumplir con las obligaciones de transparencia establecidas en la Ley de IA.
  • Capítulo de Derechos de Autor: Ofrece soluciones prácticas para que los proveedores cumplan con la obligación de desarrollar una estrategia que respete la legislación de derechos de autor de la UE.
  • Sección de Seguridad y Protección: Describe prácticas avanzadas para abordar riesgos sistémicos, aplicables solo a los proveedores de modelos de IA de propósito general que presentan riesgos sistémicos.

Críticas de Bitkom

La asociación digital alemana Bitkom ha sido relativamente diplomática en su crítica al Código de Práctica, viéndolo como una oportunidad para crear certeza legal en el desarrollo de la IA en Europa. Sin embargo, advierte que “el Código de Práctica no debe convertirse en un freno para la posición de Europa en IA.” Además, señala la necesidad de mejorar los requisitos de auditoría, que son considerados demasiado amplios y vagamente redactados.

Opiniones de CEOs de la UE

Más de 45 altos ejecutivos han expresado su preocupación en una carta abierta a la UE, advirtiendo sobre la complejidad en la regulación de la IA y el riesgo de perder competitividad. Estos directores solicitan que la implementación de la Ley de IA de la UE se posponga dos años.

Demandas de SAP y Siemens

Los CEOs de Siemens y SAP han llamado a una revisión fundamental de la Ley de IA, pidiendo un nuevo marco que fomente la innovación en lugar de obstaculizarla. Para ellos, la ley en su forma actual es “tóxica para el desarrollo de modelos de negocio digitales.”

Perspectiva de las ONG

La ONG The Future Society también ha criticado las nuevas directrices, señalando que los proveedores tecnológicos estadounidenses lograron debilitar puntos clave en sesiones cerradas. Este enfoque puede poner en desventaja a los ciudadanos y empresas europeos, limitando oportunidades para fortalecer la seguridad y la responsabilidad a nivel mundial.

Puntos críticos destacados

The Future Society ha identificado cuatro puntos críticos en las nuevas directrices:

  • Información tardía al AI Office: La oficina de IA solo recibe información importante después del lanzamiento del producto, lo que podría permitir que modelos peligrosos lleguen a los usuarios sin control.
  • Protección de denunciantes: La falta de protección efectiva para denunciantes internos es preocupante, dado que es crucial en industrias impulsadas por el mercado.
  • Planes obligatorios para emergencias: No se requieren protocolos de emergencia, algo que es estándar en otras áreas de alto riesgo.
  • Poder de decisión en gestión de riesgos: Los proveedores tienen la capacidad de identificar riesgos y definir umbrales, lo que podría resultar problemático.

Estas críticas subrayan la necesidad de un enfoque equilibrado que asegure la innovación sin comprometer la seguridad y los derechos de los ciudadanos europeos.

More Insights

Guía Práctica de IA Responsable para Desarrolladores .NET

La era de la Inteligencia Artificial (IA) está sucediendo ahora, y aunque ofrece velocidad y precisión en sectores como la banca y la salud, plantea desafíos éticos sobre su confianza. Para abordar...

Ley de Transparencia en IA: Un Hito en California

Los legisladores de California han hecho historia al aprobar una ley pionera sobre la transparencia en inteligencia artificial que se centra en los "modelos fronterizos", los sistemas de inteligencia...

Desafíos legales del uso de IA en el proceso de contratación

El uso de herramientas de IA en el proceso de solicitud permite a las empresas optimizar sus procesos, pero los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no...

Los Cuatro Pilares de los Guardrails en GenAI: Construyendo Sistemas de IA Responsables

A medida que la inteligencia artificial generativa transforma cómo operan las empresas, es fundamental implementar sistemas de guardrails para asegurar un despliegue responsable. Estos guardrails, que...

IA Responsable para Mercados Emergentes: Inclusión desde el Diseño

La inteligencia artificial está transformando el mundo, pero los beneficios no llegan a todos de manera equitativa. Es fundamental diseñar sistemas de IA inclusivos que aborden las barreras de...