Nuevas preocupaciones en la última versión del Acta de IA de la UE

Nueva propuesta de la UE sobre la normativa de IA: «Siguen existiendo preocupaciones significativas»

La Unión Europea ha publicado un nuevo borrador de normas para las empresas que utilizan modelos de inteligencia artificial de «propósito general», como GPT-4 de OpenAI o Mistral‘s Large. Sin embargo, los críticos advierten que las propuestas aún plantean «preocupaciones significativas» para las empresas tecnológicas que operan en el continente.

Este conjunto de leyes es, con diferencia, el más completo en el mundo en lo que respecta a la regulación de esta tecnología. La IA Act introduce una larga lista de nuevas reglas para las organizaciones que utilizan esta tecnología en la UE, con un énfasis en la ética, la seguridad y la transparencia.

El código de prácticas para la IA de propósito general

Desde finales del año pasado, expertos de la industria, la academia y organizaciones sin fines de lucro han estado discutiendo un documento clave: el código de prácticas para la IA de propósito general (GPAI).

Detrás de escena, los lobbistas de todos los sectores han estado negociando cómo se regularán los modelos de lenguaje de gran tamaño (LLMs) implementados por empresas como OpenAI, Google y Mistral.

El martes, la Comisión Europea publicó la tercera versión del código de prácticas. Las propuestas incluyen la apertura de los datos de entrenamiento de las empresas de IA para buscar posibles infracciones de derechos de autor y permitir que expertos externos inspeccionen sus modelos con fines de seguridad.

Preocupaciones de la industria

Boniface de Champris, un alto responsable de políticas en la CCIA (Asociación de la Industria de Computación y Comunicaciones) Europa, que cuenta con miembros como Amazon, Google y Meta, afirmó que el borrador todavía plantea «preocupaciones significativas» para las empresas tecnológicas.

“Quedan serios problemas, incluidos obligaciones amplias relacionadas con derechos de autor y transparencia, que amenazarían los secretos comerciales, así como evaluaciones externas de riesgo que aún forman parte de esta última iteración», dijo.

“El nuevo borrador avanza poco respecto a su predecesor altamente problemático, y el Código GPAI continúa sin proporcionar a las empresas la certeza legal necesaria para impulsar la innovación en IA en Europa. En su forma actual, el Código sigue arriesgando socavar directamente la competitividad digital de la UE.”

La discusión en torno a estas regulaciones refleja la complejidad de equilibrar la innovación tecnológica con la necesidad de establecer normas que garanticen la seguridad y la ética en el uso de la inteligencia artificial.

More Insights

Gobernanza de la IA: Retos y Oportunidades para Profesionales de Seguridad

La inteligencia artificial (IA) está teniendo un amplio efecto en las líneas de negocio, incluida la ciberseguridad, con un estudio que muestra que el 63% de los profesionales de ciberseguridad creen...

Gobierno británico en la mira por la implementación de reconocimiento facial sin regulación

El gobierno del Reino Unido ha sido criticado por la implementación de tecnología de reconocimiento facial sin un marco legal adecuado. El Instituto Ada Lovelace ha expresado preocupaciones sobre el...

El Auge de Startups de Gobernanza en la Era de la IA

A medida que la explosión de la inteligencia artificial avanza, las soluciones de gobernanza están en gran demanda. La industria global de gobernanza de IA se valoró en 890 millones de dólares el año...

Perspectivas sobre la Moratoria de 10 Años en las Leyes Estatales de IA en EE. UU.

La Cámara de Representantes de EE. UU. aprobó un paquete de presupuesto que incluye una moratoria de 10 años sobre la aplicación de leyes estatales de inteligencia artificial. Tech Policy Press busca...

El Futuro de la IA en los Tribunales: Lecciones de 500 Casos

A través del mundo, la regulación de la inteligencia artificial (IA) es desigual, con algunas jurisdicciones que ya cuentan con regulaciones integrales y otras que solo se centran en reglas...

Estrategias Efectivas para Mitigar los Riesgos de la IA Responsable

La inteligencia artificial responsable se está transformando de una impresionante palabra de moda en una necesidad crítica para los negocios, especialmente en la región de Asia-Pacífico. A pesar de...

La necesidad urgente de gobernanza legal en la IA

En esta entrevista de Help Net Security, Brooke Johnson, Asesor Legal Principal de Ivanti, explora las responsabilidades legales en la gobernanza de la IA, destacando cómo la colaboración...

Reformando las Regulaciones de IA

La Cámara de Representantes aprobó recientemente un importante proyecto de ley que impide a los estados regular modelos de inteligencia artificial durante diez años. Esto preocupa a algunos...