Grupos de consumidores advierten sobre retrocesos en la regulación de la IA

Advertencias de grupos de consumidores sobre retrasos en la regulación de la IA

Más de 50 organizaciones, incluyendo Access Now, el Centro para la Democracia y la Tecnología Europa (CDT) y la Organización Europea de Consumidores (BEUC), han expresado su preocupación ante la Comisaria de Tecnología de la UE, Henna Virkkunen, en una carta reciente. La advertencia se centra en los posibles retrasos y retrocesos en la implementación de la IA Act, una legislación clave que regula los sistemas de inteligencia artificial según el riesgo que representan para la sociedad.

Preocupaciones sobre el ‘stop the clock’

La carta pone de manifiesto la creciente presión para considerar un mecanismo de ‘stop the clock’, que suspendería o retrasaría la implementación y el cumplimiento de la IA Act. Los firmantes enfatizan que la agenda de simplificación de la UE no debe ser utilizada como un pretexto para la deregulación, especialmente en ausencia de evidencia creíble que justifique esta acción.

El documento también señala que las reglas de la UE se basan en valores y principios fundamentales y que los esfuerzos de simplificación deben construir sobre las protecciones legales adquiridas con esfuerzo, en lugar de desmantelarlas.

Demandas de los CEOs europeos

Esta advertencia surge tras los llamados de más de 40 CEOs de empresas europeas, como ASML, Philips, Siemens y Mistral, quienes solicitaron a la Comisión que imponga un ‘clock-stop’ de dos años sobre la IA Act antes de que entren en vigor las obligaciones clave en agosto. Argumentan que el retraso es necesario tanto para una implementación razonable por parte de las empresas como para una simplificación adicional de las nuevas reglas.

Período de gracia y plazos de implementación

La IA Act, que regula los sistemas de inteligencia artificial, entró en vigor en agosto de 2024, pero su aplicación completa se espera para 2027. Las empresas han solicitado una pausa en las obligaciones sobre los sistemas de IA de alto riesgo, que deben entrar en vigor en agosto de 2026, así como en las obligaciones para los modelos de IA de propósito general (GPAI), cuya implementación está programada para agosto de 2025.

Mientras tanto, el Código de Práctica sobre GPAI, un conjunto de reglas voluntarias destinadas a ayudar a los proveedores de modelos de IA, como ChatGPT y Gemini, a cumplir con la IA Act, aún no ha sido publicado. Se espera que el borrador, redactado por expertos designados por la Comisión, esté disponible en julio.

Críticas a la implementación de las reglas

Las empresas afirman que no tienen suficiente tiempo para cumplir con las reglas antes de que entren en vigor en agosto y han solicitado un período de gracia. Thomas Regnier, portavoz de la Comisión para el ámbito digital, declaró que actualmente se discute el momento de implementar el Código de Práctica, considerando el final de 2025 como una posible fecha.

Este cronograma sería adelantado en comparación con los plazos de cumplimiento de la IA Act: 2026 para nuevos modelos y 2027 para modelos existentes. Sin embargo, el proceso ha sido criticado desde que los expertos designados por la Comisión comenzaron a redactar las reglas en septiembre de 2024. Gigantes tecnológicos, así como editores y titulares de derechos, expresan su preocupación de que estas reglas violen las leyes de derechos de autor de la UE y restrinjan la innovación.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...