Bruselas en la espera de la tercera versión del Código de Práctica GPAI

La Expectativa en Bruselas ante el Tercer Borrador del Código de Práctica GPAI

Una atmósfera de anticipación envuelve la burbuja de inteligencia artificial (IA) en Bruselas, ya que aún no se ha publicado el tercer borrador de las directrices para los proveedores de sistemas GPAI como ChatGPT, originalmente programado para la semana del 17 de febrero.

Las tensiones están altas, con las grandes empresas tecnológicas amenazando con no firmar el Código de Práctica (CoP), la Comisión presionando por una simplificación, y algunas organizaciones de la sociedad civil sintiéndose tan ignoradas que desean retirarse para no legitimar el proceso.

“La verdadera batalla probablemente comenzará una vez que se publique el tercer borrador,” comentó un representante de la sociedad civil.

Un Conflicto Global, Versión Tres

No es la primera vez que la industria, la sociedad civil, las organizaciones de derechos y los reguladores chocan sobre cómo regular el GPAI.

La Ley de IA fue diseñada antes de la llegada de ChatGPT, sin disposiciones específicas para los modelos GPAI, que se han vuelto omnipresentes. La Ley se centró en casos de uso específicos, pero los modelos GPAI son flexibles, lo que significa que un solo modelo podría integrarse en múltiples casos de uso, proporcionando riesgos sistémicos.

Tras la introducción de las reglas GPAI, una coalición franco-alemana-italiana encabezada por el retador francés Mistral AI casi logró eliminar las reglas por temor a que impidieran que la UE compitiera.

Esto no fue bien recibido cuando Mistral, más tarde, anunció su asociación con Microsoft, lo que generó dudas sobre quién se beneficiaría de requisitos GPAI más débiles. No obstante, Mistral sigue siendo visto como el principal contendiente europeo en el ámbito GPAI.

La Batalla Legislativa en California

En agosto, se informó sobre la feroz batalla en torno a un controvertido proyecto de ley de IA en California que los expertos dijeron podría complementar y mejorar la regulación de la IA en la UE si se aprueba. Sin embargo, el proyecto de ley fue finalmente rechazado por el gobernador Gavin Newsom tras una fuerte presión de la industria y los demócratas del Congreso.

En ambos casos, la industria intensificó la presión en la crucial fase final del proceso político.

La Nueva Fase de Regulación

El CoP de la UE está en camino de convertirse en las directrices más detalladas y legalmente respaldadas para los proveedores de GPAI hasta la fecha, y podría establecer el estándar global para las mejores prácticas en GPAI. Está ingresando en su fase final.

Cronograma

El tercer borrador es el último antes de que se circule una versión final del Código, cuyo plazo es el 2 de mayo. Después de eso, el Código debe ser aprobado por la Oficina de IA de la Comisión, los Estados miembros a través de la junta de IA, y luego implementado por la Comisión antes del 2 de agosto.

La línea de tiempo de la Comisión ahora indica “febrero-marzo” para el tercer borrador, con reuniones de grupos de trabajo, reuniones del subgrupo de la junta de IA y un plenario resumen con los presidentes a cargo de la redacción esperados en “marzo,” con una reunión de la junta de IA programada para el 11.

Recientemente, la Oficina de IA informó a los participantes que un taller titulado “Perspectivas de la sociedad civil sobre el Código de Práctica” planeado para el 7 de marzo se reprogramará para permitir tiempo suficiente para revisar el borrador y proporcionar comentarios significativos.

Frentes de Batalla

Se han identificado tres líneas de frente principales a lo largo del proceso: la prueba de terceros obligatoria, la taxonomía de riesgos del Código y los problemas relacionados con la transparencia en los derechos de autor.

Una coalición centrada en la seguridad de IA argumenta que no se garantiza el cumplimiento real si las empresas realizan sus propias pruebas.

Una coalición centrada en los derechos humanos sostiene que los riesgos para los derechos fundamentales se diluyen en el Código, especialmente debido a la falta de inclusión en la taxonomía de riesgos. Apoyan las pruebas de terceros, pero se preocupan por otros riesgos además de los de seguridad.

Los titulares de derechos luchan por una aplicación estricta de las reglas de derechos de autor y exigen que las empresas GPAI publiquen resúmenes detallados de sus datos de entrenamiento.

La industria sostiene que los requisitos de pruebas de terceros y derechos de autor van más allá de la Ley de IA, y que el CoP es solo una herramienta de cumplimiento para seguir la ley. Les preocupa que la taxonomía de riesgos sea demasiado vaga y no esté bien fundamentada en riesgos documentados en el mundo real.

Mientras estas preocupaciones son a menudo defendidas por lobbies de grandes empresas tecnológicas que representan a grandes compañías estadounidenses en Bruselas, un reciente cluster de IA polaco envió una carta al jefe tecnológico de la UE, Henna Virkkunen, advirtiendo que la UE “riesga crear un monstruo burocrático” con el actual CoP.

Todos los lados se están quejando de que no se les escucha lo suficiente en el proceso de redacción, con la industria argumentando que los proveedores de GPAI son solo el 5% de los involucrados, y otros diciendo que la industria es demasiado influyente.

Un grupo de 13 expertos principalmente académicos intenta equilibrar estas preocupaciones. Sin embargo, la Comisión y los Estados miembros tienen la última palabra.

Las empresas pueden decidir recurrir a abogados en lugar de firmar el Código. Meta ya ha declarado que no firmará en la forma actual del Código, y Google amenaza con hacer lo mismo.

El tercer borrador del CoP, que se espera en cualquier momento, dará forma a la próxima ola de controversia.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...