EE. UU. busca eliminar el código de práctica de la Ley de IA de la UE

Estados Unidos busca eliminar el código de prácticas de la Ley de IA de la UE

La reciente presión del presidente de los Estados Unidos, Donald Trump, sobre los reguladores europeos para que deshechen el código de prácticas de la Ley de IA de la Unión Europea (UE) ha generado un intenso debate sobre el futuro de la regulación de la inteligencia artificial (IA). Se argumenta que este código, que tiene como objetivo promover el desarrollo de una IA más transparente y consciente de los derechos de autor, podría sofocar la innovación y crear cargas innecesarias para las empresas.

Un marco regulatorio en evolución

A pesar de que la Ley de IA de la UE parece estar en su fase final, los interesados continúan redactando el código de prácticas que establecerá reglas para los modelos de IA de propósito general (GPAI), incluidos aquellos que presentan riesgos sistémicos. Sin embargo, a medida que se acerca la fecha límite de redacción, la administración estadounidense ha comenzado a cuestionar la necesidad y la viabilidad de estas regulaciones.

Críticas al código de prácticas

Los críticos argumentan que el borrador del código impone obligaciones adicionales, como pruebas de modelos por terceros y divulgación completa de los datos de entrenamiento, que van más allá de lo que estipula el texto legalmente vinculante de la Ley de IA. Thomas Randall, director de investigación de mercado de IA en Info-Tech Research Group, afirma que estas exigencias son difíciles de implementar a gran escala.

La responsabilidad se traslada a las empresas

La Comisión Europea ha declarado que el código debería ser una herramienta central para que los proveedores demuestren su cumplimiento con la Ley de IA, aunque su aplicación es voluntaria. Este enfoque busca ayudar a las empresas a prepararse para cumplir con las regulaciones de transparencia, derechos de autor y mitigación de riesgos. Sin embargo, la carga de la IA responsable está comenzando a recaer sobre las organizaciones que implementan la tecnología.

Randall advierte que todas las organizaciones que operen en Europa necesitarán desarrollar sus propios manuales de riesgos de IA, que incluyan verificaciones de impacto en la privacidad y registros de procedencia, para evitar daños contractuales, regulatorios y reputacionales.

El futuro de la regulación de IA

Si la administración estadounidense y otros países siguen este enfoque menos regulatorio, se podría crear un paisaje de regulación ligera con menor supervisión federal. En enero, la administración emitió la Orden Ejecutiva 14179, «Eliminando Barreras para el Liderazgo Americano en Inteligencia Artificial», lo que indica un cambio hacia un marco regulatorio más laxo.

Bill Wong, investigador de IA en Info-Tech Research Group, señala que esta nueva guía parece alentar a los socios a alinearse con la postura de desregulación de la orden ejecutiva, lo que podría tener implicaciones significativas para la industria de la IA a nivel global.

Conclusiones

La situación actual respecto a la regulación de la IA plantea importantes interrogantes sobre cómo las empresas, desde startups hasta grandes corporaciones, deben manejar los temas de privacidad, derechos de autor y seguridad de los modelos. En un entorno donde las reglas son menos claras, cada empresa deberá trazar su propio camino, lo que podría resultar en un enfoque desigual hacia la IA responsable.

Los CIOs deben considerar los controles de IA responsable como una parte fundamental de su infraestructura, y no simplemente como un proyecto secundario. La presión del gobierno y la industria para adoptar un enfoque más flexible en la regulación de la IA está en aumento, y su impacto en el futuro de la tecnología será significativo.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...