Nuevas preocupaciones en la última versión del Acta de IA de la UE

Nueva propuesta de la UE sobre la normativa de IA: «Siguen existiendo preocupaciones significativas»

La Unión Europea ha publicado un nuevo borrador de normas para las empresas que utilizan modelos de inteligencia artificial de «propósito general», como GPT-4 de OpenAI o Mistral‘s Large. Sin embargo, los críticos advierten que las propuestas aún plantean «preocupaciones significativas» para las empresas tecnológicas que operan en el continente.

Este conjunto de leyes es, con diferencia, el más completo en el mundo en lo que respecta a la regulación de esta tecnología. La IA Act introduce una larga lista de nuevas reglas para las organizaciones que utilizan esta tecnología en la UE, con un énfasis en la ética, la seguridad y la transparencia.

El código de prácticas para la IA de propósito general

Desde finales del año pasado, expertos de la industria, la academia y organizaciones sin fines de lucro han estado discutiendo un documento clave: el código de prácticas para la IA de propósito general (GPAI).

Detrás de escena, los lobbistas de todos los sectores han estado negociando cómo se regularán los modelos de lenguaje de gran tamaño (LLMs) implementados por empresas como OpenAI, Google y Mistral.

El martes, la Comisión Europea publicó la tercera versión del código de prácticas. Las propuestas incluyen la apertura de los datos de entrenamiento de las empresas de IA para buscar posibles infracciones de derechos de autor y permitir que expertos externos inspeccionen sus modelos con fines de seguridad.

Preocupaciones de la industria

Boniface de Champris, un alto responsable de políticas en la CCIA (Asociación de la Industria de Computación y Comunicaciones) Europa, que cuenta con miembros como Amazon, Google y Meta, afirmó que el borrador todavía plantea «preocupaciones significativas» para las empresas tecnológicas.

“Quedan serios problemas, incluidos obligaciones amplias relacionadas con derechos de autor y transparencia, que amenazarían los secretos comerciales, así como evaluaciones externas de riesgo que aún forman parte de esta última iteración», dijo.

“El nuevo borrador avanza poco respecto a su predecesor altamente problemático, y el Código GPAI continúa sin proporcionar a las empresas la certeza legal necesaria para impulsar la innovación en IA en Europa. En su forma actual, el Código sigue arriesgando socavar directamente la competitividad digital de la UE.”

La discusión en torno a estas regulaciones refleja la complejidad de equilibrar la innovación tecnológica con la necesidad de establecer normas que garanticen la seguridad y la ética en el uso de la inteligencia artificial.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...