EE. UU. busca eliminar el código de práctica de la Ley de IA de la UE

Estados Unidos busca eliminar el código de prácticas de la Ley de IA de la UE

La reciente presión del presidente de los Estados Unidos, Donald Trump, sobre los reguladores europeos para que deshechen el código de prácticas de la Ley de IA de la Unión Europea (UE) ha generado un intenso debate sobre el futuro de la regulación de la inteligencia artificial (IA). Se argumenta que este código, que tiene como objetivo promover el desarrollo de una IA más transparente y consciente de los derechos de autor, podría sofocar la innovación y crear cargas innecesarias para las empresas.

Un marco regulatorio en evolución

A pesar de que la Ley de IA de la UE parece estar en su fase final, los interesados continúan redactando el código de prácticas que establecerá reglas para los modelos de IA de propósito general (GPAI), incluidos aquellos que presentan riesgos sistémicos. Sin embargo, a medida que se acerca la fecha límite de redacción, la administración estadounidense ha comenzado a cuestionar la necesidad y la viabilidad de estas regulaciones.

Críticas al código de prácticas

Los críticos argumentan que el borrador del código impone obligaciones adicionales, como pruebas de modelos por terceros y divulgación completa de los datos de entrenamiento, que van más allá de lo que estipula el texto legalmente vinculante de la Ley de IA. Thomas Randall, director de investigación de mercado de IA en Info-Tech Research Group, afirma que estas exigencias son difíciles de implementar a gran escala.

La responsabilidad se traslada a las empresas

La Comisión Europea ha declarado que el código debería ser una herramienta central para que los proveedores demuestren su cumplimiento con la Ley de IA, aunque su aplicación es voluntaria. Este enfoque busca ayudar a las empresas a prepararse para cumplir con las regulaciones de transparencia, derechos de autor y mitigación de riesgos. Sin embargo, la carga de la IA responsable está comenzando a recaer sobre las organizaciones que implementan la tecnología.

Randall advierte que todas las organizaciones que operen en Europa necesitarán desarrollar sus propios manuales de riesgos de IA, que incluyan verificaciones de impacto en la privacidad y registros de procedencia, para evitar daños contractuales, regulatorios y reputacionales.

El futuro de la regulación de IA

Si la administración estadounidense y otros países siguen este enfoque menos regulatorio, se podría crear un paisaje de regulación ligera con menor supervisión federal. En enero, la administración emitió la Orden Ejecutiva 14179, «Eliminando Barreras para el Liderazgo Americano en Inteligencia Artificial», lo que indica un cambio hacia un marco regulatorio más laxo.

Bill Wong, investigador de IA en Info-Tech Research Group, señala que esta nueva guía parece alentar a los socios a alinearse con la postura de desregulación de la orden ejecutiva, lo que podría tener implicaciones significativas para la industria de la IA a nivel global.

Conclusiones

La situación actual respecto a la regulación de la IA plantea importantes interrogantes sobre cómo las empresas, desde startups hasta grandes corporaciones, deben manejar los temas de privacidad, derechos de autor y seguridad de los modelos. En un entorno donde las reglas son menos claras, cada empresa deberá trazar su propio camino, lo que podría resultar en un enfoque desigual hacia la IA responsable.

Los CIOs deben considerar los controles de IA responsable como una parte fundamental de su infraestructura, y no simplemente como un proyecto secundario. La presión del gobierno y la industria para adoptar un enfoque más flexible en la regulación de la IA está en aumento, y su impacto en el futuro de la tecnología será significativo.

More Insights

Inteligencia Artificial y Ciberseguridad: Desafíos de Responsabilidad

A medida que las organizaciones adoptan la inteligencia artificial (IA) para impulsar la innovación y transformar las operaciones, deben enfrentar una nueva realidad: la IA está remodelando...

Enfoque Inteligente para la Gobernanza de la IA en Tailandia

El Sr. Sak menciona que la próxima legislación tiene como objetivo proteger a los usuarios de los posibles riesgos de la IA y eliminar las barreras legales que las leyes existentes no pueden abordar...

Texas Establece Leyes de Gobernanza de IA con Enfoque en Salud

Texas ha dado un paso significativo en la regulación de la inteligencia artificial (IA) con la aprobación de los proyectos de ley HB 149 y SB 1188, que establecen un marco amplio para el uso...

Gillian K. Hadfield: Nueva Líder en Gobernanza de IA

Gillian K. Hadfield ha sido nombrada Profesora Distinguida Bloomberg de Alineación y Gobernanza de la IA en la Universidad Johns Hopkins. Su investigación se centra en asegurar que los sistemas de...

Gobernanza Ética e Inclusiva de la IA en Indonesia

El Ministerio de Comunicación y Digital de Indonesia ha reafirmado su compromiso de incorporar principios éticos e inclusivos en sus políticas de inteligencia artificial (IA). El Vice Ministro Nezar...

Texas y la Nueva Ley de Gobernanza de IA Responsable

El 22 de junio de 2025, el gobernador Abbott firmó la Ley de Gobernanza de Inteligencia Artificial Responsable de Texas, convirtiendo a Texas en el tercer estado de EE. UU. en adoptar una ley integral...

La IA como Ventaja Competitiva en Cumplimiento Normativo

La inteligencia artificial está ayudando a las empresas a cumplir con una compleja gama de regulaciones en constante evolución, brindándoles una ventaja competitiva. Las herramientas basadas en IA...