Bruselas en la espera de la tercera versión del Código de Práctica GPAI

La Expectativa en Bruselas ante el Tercer Borrador del Código de Práctica GPAI

Una atmósfera de anticipación envuelve la burbuja de inteligencia artificial (IA) en Bruselas, ya que aún no se ha publicado el tercer borrador de las directrices para los proveedores de sistemas GPAI como ChatGPT, originalmente programado para la semana del 17 de febrero.

Las tensiones están altas, con las grandes empresas tecnológicas amenazando con no firmar el Código de Práctica (CoP), la Comisión presionando por una simplificación, y algunas organizaciones de la sociedad civil sintiéndose tan ignoradas que desean retirarse para no legitimar el proceso.

“La verdadera batalla probablemente comenzará una vez que se publique el tercer borrador,” comentó un representante de la sociedad civil.

Un Conflicto Global, Versión Tres

No es la primera vez que la industria, la sociedad civil, las organizaciones de derechos y los reguladores chocan sobre cómo regular el GPAI.

La Ley de IA fue diseñada antes de la llegada de ChatGPT, sin disposiciones específicas para los modelos GPAI, que se han vuelto omnipresentes. La Ley se centró en casos de uso específicos, pero los modelos GPAI son flexibles, lo que significa que un solo modelo podría integrarse en múltiples casos de uso, proporcionando riesgos sistémicos.

Tras la introducción de las reglas GPAI, una coalición franco-alemana-italiana encabezada por el retador francés Mistral AI casi logró eliminar las reglas por temor a que impidieran que la UE compitiera.

Esto no fue bien recibido cuando Mistral, más tarde, anunció su asociación con Microsoft, lo que generó dudas sobre quién se beneficiaría de requisitos GPAI más débiles. No obstante, Mistral sigue siendo visto como el principal contendiente europeo en el ámbito GPAI.

La Batalla Legislativa en California

En agosto, se informó sobre la feroz batalla en torno a un controvertido proyecto de ley de IA en California que los expertos dijeron podría complementar y mejorar la regulación de la IA en la UE si se aprueba. Sin embargo, el proyecto de ley fue finalmente rechazado por el gobernador Gavin Newsom tras una fuerte presión de la industria y los demócratas del Congreso.

En ambos casos, la industria intensificó la presión en la crucial fase final del proceso político.

La Nueva Fase de Regulación

El CoP de la UE está en camino de convertirse en las directrices más detalladas y legalmente respaldadas para los proveedores de GPAI hasta la fecha, y podría establecer el estándar global para las mejores prácticas en GPAI. Está ingresando en su fase final.

Cronograma

El tercer borrador es el último antes de que se circule una versión final del Código, cuyo plazo es el 2 de mayo. Después de eso, el Código debe ser aprobado por la Oficina de IA de la Comisión, los Estados miembros a través de la junta de IA, y luego implementado por la Comisión antes del 2 de agosto.

La línea de tiempo de la Comisión ahora indica “febrero-marzo” para el tercer borrador, con reuniones de grupos de trabajo, reuniones del subgrupo de la junta de IA y un plenario resumen con los presidentes a cargo de la redacción esperados en “marzo,” con una reunión de la junta de IA programada para el 11.

Recientemente, la Oficina de IA informó a los participantes que un taller titulado “Perspectivas de la sociedad civil sobre el Código de Práctica” planeado para el 7 de marzo se reprogramará para permitir tiempo suficiente para revisar el borrador y proporcionar comentarios significativos.

Frentes de Batalla

Se han identificado tres líneas de frente principales a lo largo del proceso: la prueba de terceros obligatoria, la taxonomía de riesgos del Código y los problemas relacionados con la transparencia en los derechos de autor.

Una coalición centrada en la seguridad de IA argumenta que no se garantiza el cumplimiento real si las empresas realizan sus propias pruebas.

Una coalición centrada en los derechos humanos sostiene que los riesgos para los derechos fundamentales se diluyen en el Código, especialmente debido a la falta de inclusión en la taxonomía de riesgos. Apoyan las pruebas de terceros, pero se preocupan por otros riesgos además de los de seguridad.

Los titulares de derechos luchan por una aplicación estricta de las reglas de derechos de autor y exigen que las empresas GPAI publiquen resúmenes detallados de sus datos de entrenamiento.

La industria sostiene que los requisitos de pruebas de terceros y derechos de autor van más allá de la Ley de IA, y que el CoP es solo una herramienta de cumplimiento para seguir la ley. Les preocupa que la taxonomía de riesgos sea demasiado vaga y no esté bien fundamentada en riesgos documentados en el mundo real.

Mientras estas preocupaciones son a menudo defendidas por lobbies de grandes empresas tecnológicas que representan a grandes compañías estadounidenses en Bruselas, un reciente cluster de IA polaco envió una carta al jefe tecnológico de la UE, Henna Virkkunen, advirtiendo que la UE “riesga crear un monstruo burocrático” con el actual CoP.

Todos los lados se están quejando de que no se les escucha lo suficiente en el proceso de redacción, con la industria argumentando que los proveedores de GPAI son solo el 5% de los involucrados, y otros diciendo que la industria es demasiado influyente.

Un grupo de 13 expertos principalmente académicos intenta equilibrar estas preocupaciones. Sin embargo, la Comisión y los Estados miembros tienen la última palabra.

Las empresas pueden decidir recurrir a abogados en lugar de firmar el Código. Meta ya ha declarado que no firmará en la forma actual del Código, y Google amenaza con hacer lo mismo.

El tercer borrador del CoP, que se espera en cualquier momento, dará forma a la próxima ola de controversia.

More Insights

Gobernanza de la IA: Retos y Oportunidades para Profesionales de Seguridad

La inteligencia artificial (IA) está teniendo un amplio efecto en las líneas de negocio, incluida la ciberseguridad, con un estudio que muestra que el 63% de los profesionales de ciberseguridad creen...

Gobierno británico en la mira por la implementación de reconocimiento facial sin regulación

El gobierno del Reino Unido ha sido criticado por la implementación de tecnología de reconocimiento facial sin un marco legal adecuado. El Instituto Ada Lovelace ha expresado preocupaciones sobre el...

El Auge de Startups de Gobernanza en la Era de la IA

A medida que la explosión de la inteligencia artificial avanza, las soluciones de gobernanza están en gran demanda. La industria global de gobernanza de IA se valoró en 890 millones de dólares el año...

Perspectivas sobre la Moratoria de 10 Años en las Leyes Estatales de IA en EE. UU.

La Cámara de Representantes de EE. UU. aprobó un paquete de presupuesto que incluye una moratoria de 10 años sobre la aplicación de leyes estatales de inteligencia artificial. Tech Policy Press busca...

El Futuro de la IA en los Tribunales: Lecciones de 500 Casos

A través del mundo, la regulación de la inteligencia artificial (IA) es desigual, con algunas jurisdicciones que ya cuentan con regulaciones integrales y otras que solo se centran en reglas...

Estrategias Efectivas para Mitigar los Riesgos de la IA Responsable

La inteligencia artificial responsable se está transformando de una impresionante palabra de moda en una necesidad crítica para los negocios, especialmente en la región de Asia-Pacífico. A pesar de...

La necesidad urgente de gobernanza legal en la IA

En esta entrevista de Help Net Security, Brooke Johnson, Asesor Legal Principal de Ivanti, explora las responsabilidades legales en la gobernanza de la IA, destacando cómo la colaboración...

Reformando las Regulaciones de IA

La Cámara de Representantes aprobó recientemente un importante proyecto de ley que impide a los estados regular modelos de inteligencia artificial durante diez años. Esto preocupa a algunos...