EU Se Opone a Reglas de Cumplimiento Voluntario en la Ley de IA

Los Legisladores de la UE se Oponen a las Reglas de Cumplimiento Voluntario de la Ley de IA que Podrían Beneficiar a Google y OpenAI

La Comisión Europea está considerando hacer que más de los requisitos de la Ley de IA sean voluntarios. Esta medida, que podría favorecer a grandes desarrolladores de IA como Google y OpenAI, enfrenta una fuerte resistencia por parte del Parlamento Europeo.

Resumen de Claves

– La Comisión Europea está evaluando la posibilidad de que muchos de los requisitos de la Ley de IA sean voluntarios.

– Esta propuesta podría beneficiar a grandes empresas de IA.

– Sin embargo, se ha encontrado con una fuerte oposición en el Parlamento Europeo.

Deregulación en la Agenda

Desde que la Ley de IA fue aprobada en 2024, el clima político ha cambiado notablemente. Aunque la ley se redactó con la seguridad en mente, las preocupaciones sobre la competitividad europea han llevado a algunos a pedir un enfoque más laissez-faire que fomente la innovación.

En febrero, la Comisión eliminó una propuesta de directiva de responsabilidad en IA de su programa de trabajo para 2025, argumentando que no había «ningún acuerdo previsible» sobre la legislación. Al mismo tiempo, anunció planes para reducir la burocracia, lo que incluiría medidas para enmendar las reglas de auditoría, contabilidad y sostenibilidad.

Presión de EE.UU.

La presión de la administración estadounidense también ha influido en la tendencia a la deregulación de la UE. Un reciente memorando de la Casa Blanca citó directamente la Ley de Mercados Digitales y la Ley de Servicios Digitales de la UE, sugiriendo que la Ley de IA podría considerarse una amenaza para las empresas estadounidenses.

En este contexto geopolítico, las grandes empresas tecnológicas de EE.UU. serían las principales beneficiarias de cualquier movimiento para debilitar la Ley de IA. Por ejemplo, Google y OpenAI tendrían una carga de cumplimiento mucho menor si los requisitos de reporte de IA se hacen voluntarios.

Advertencias de los MEP

Los miembros del Parlamento Europeo (MEPs) que ayudaron a negociar la Ley de IA han expresado su oposición a los planes de debilitarla, considerándolos «peligrosos» y «antidemocráticos». En una carta dirigida a la Comisión, argumentaron que si los desarrolladores de IA no se adhieren a altos estándares de seguridad y protección, «las consecuencias podrían perturbar profundamente la economía y la democracia europeas».

A pesar de que la jerarquía del proceso legislativo de la UE significa que los MEPs tienen poco poder para bloquear los cambios de la Comisión, los estados miembros aún pueden ejercer su influencia. Es crucial destacar que la carta también fue firmada por Carme Artigas, quien negoció en nombre de los estados miembros durante la redacción de la Ley.

Aun así, se espera que la Comisión cuente con el apoyo clave de Francia, que ha resistido las llamadas a una regulación más estricta de la IA a lo largo del proceso.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...