EU Se Opone a Reglas de Cumplimiento Voluntario en la Ley de IA

Los Legisladores de la UE se Oponen a las Reglas de Cumplimiento Voluntario de la Ley de IA que Podrían Beneficiar a Google y OpenAI

La Comisión Europea está considerando hacer que más de los requisitos de la Ley de IA sean voluntarios. Esta medida, que podría favorecer a grandes desarrolladores de IA como Google y OpenAI, enfrenta una fuerte resistencia por parte del Parlamento Europeo.

Resumen de Claves

– La Comisión Europea está evaluando la posibilidad de que muchos de los requisitos de la Ley de IA sean voluntarios.

– Esta propuesta podría beneficiar a grandes empresas de IA.

– Sin embargo, se ha encontrado con una fuerte oposición en el Parlamento Europeo.

Deregulación en la Agenda

Desde que la Ley de IA fue aprobada en 2024, el clima político ha cambiado notablemente. Aunque la ley se redactó con la seguridad en mente, las preocupaciones sobre la competitividad europea han llevado a algunos a pedir un enfoque más laissez-faire que fomente la innovación.

En febrero, la Comisión eliminó una propuesta de directiva de responsabilidad en IA de su programa de trabajo para 2025, argumentando que no había «ningún acuerdo previsible» sobre la legislación. Al mismo tiempo, anunció planes para reducir la burocracia, lo que incluiría medidas para enmendar las reglas de auditoría, contabilidad y sostenibilidad.

Presión de EE.UU.

La presión de la administración estadounidense también ha influido en la tendencia a la deregulación de la UE. Un reciente memorando de la Casa Blanca citó directamente la Ley de Mercados Digitales y la Ley de Servicios Digitales de la UE, sugiriendo que la Ley de IA podría considerarse una amenaza para las empresas estadounidenses.

En este contexto geopolítico, las grandes empresas tecnológicas de EE.UU. serían las principales beneficiarias de cualquier movimiento para debilitar la Ley de IA. Por ejemplo, Google y OpenAI tendrían una carga de cumplimiento mucho menor si los requisitos de reporte de IA se hacen voluntarios.

Advertencias de los MEP

Los miembros del Parlamento Europeo (MEPs) que ayudaron a negociar la Ley de IA han expresado su oposición a los planes de debilitarla, considerándolos «peligrosos» y «antidemocráticos». En una carta dirigida a la Comisión, argumentaron que si los desarrolladores de IA no se adhieren a altos estándares de seguridad y protección, «las consecuencias podrían perturbar profundamente la economía y la democracia europeas».

A pesar de que la jerarquía del proceso legislativo de la UE significa que los MEPs tienen poco poder para bloquear los cambios de la Comisión, los estados miembros aún pueden ejercer su influencia. Es crucial destacar que la carta también fue firmada por Carme Artigas, quien negoció en nombre de los estados miembros durante la redacción de la Ley.

Aun así, se espera que la Comisión cuente con el apoyo clave de Francia, que ha resistido las llamadas a una regulación más estricta de la IA a lo largo del proceso.

More Insights

La falta de transparencia en la regulación de IA perjudica a Europa

La UE está en riesgo de comprometer principios fundamentales al intentar simplificar las regulaciones para las empresas tecnológicas, confundiendo la transparencia con un obstáculo para la innovación...

El Congreso y los tribunales enfrentan los desafíos legales de la IA

La inteligencia artificial se está convirtiendo rápidamente en una parte integral de la vida cotidiana, lo que intensifica el debate sobre cómo utilizarla de manera adecuada y ética. El Congreso y los...

El Acta de IA de la UE: Desafíos y Oportunidades

La Ley de IA de la UE se convertirá en la primera regulación importante centrada en la inteligencia artificial, con el objetivo de garantizar que los sistemas de IA en Europa sean seguros y justos...

El Acta de IA de la UE: Desafíos y Oportunidades

La Ley de IA de la UE se convertirá en la primera regulación importante centrada en la inteligencia artificial, con el objetivo de garantizar que los sistemas de IA en Europa sean seguros y justos...

Impacto del modelo DeepSeek en la regulación de la IA en la UE

La aparición del modelo de IA chino DeepSeek está llevando a los responsables políticos de la UE a considerar cambios en la Ley de IA de la UE. Se prevé que una actualización de una medida de umbral...

Enfoques para Mitigar los Riesgos de la IA: ¿Suave, Duro o un Punto Intermedio?

El desarrollo de la inteligencia artificial presenta riesgos debido a que las herramientas modernas están desafiando los límites éticos bajo marcos legales existentes. Las diferencias regulatorias...

De Obstáculo a Potenciador: El Papel del Ingeniero de Datos en la IA Responsable

El artículo presenta un nuevo modelo de colaboración donde los equipos de ingeniería de datos pasan de ser constructores únicos a arquitectos de habilitación, empoderando a las unidades de negocio...

Riesgos y responsabilidades en la era de la IA

La inteligencia artificial (IA) está cada vez más presente en los negocios y en la vida social, pero su uso creciente también conlleva riesgos significativos, como sesgos algorítmicos y preocupaciones...