EE. UU. busca eliminar el código de práctica de la Ley de IA de la UE

Estados Unidos busca eliminar el código de prácticas de la Ley de IA de la UE

La reciente presión del presidente de los Estados Unidos, Donald Trump, sobre los reguladores europeos para que deshechen el código de prácticas de la Ley de IA de la Unión Europea (UE) ha generado un intenso debate sobre el futuro de la regulación de la inteligencia artificial (IA). Se argumenta que este código, que tiene como objetivo promover el desarrollo de una IA más transparente y consciente de los derechos de autor, podría sofocar la innovación y crear cargas innecesarias para las empresas.

Un marco regulatorio en evolución

A pesar de que la Ley de IA de la UE parece estar en su fase final, los interesados continúan redactando el código de prácticas que establecerá reglas para los modelos de IA de propósito general (GPAI), incluidos aquellos que presentan riesgos sistémicos. Sin embargo, a medida que se acerca la fecha límite de redacción, la administración estadounidense ha comenzado a cuestionar la necesidad y la viabilidad de estas regulaciones.

Críticas al código de prácticas

Los críticos argumentan que el borrador del código impone obligaciones adicionales, como pruebas de modelos por terceros y divulgación completa de los datos de entrenamiento, que van más allá de lo que estipula el texto legalmente vinculante de la Ley de IA. Thomas Randall, director de investigación de mercado de IA en Info-Tech Research Group, afirma que estas exigencias son difíciles de implementar a gran escala.

La responsabilidad se traslada a las empresas

La Comisión Europea ha declarado que el código debería ser una herramienta central para que los proveedores demuestren su cumplimiento con la Ley de IA, aunque su aplicación es voluntaria. Este enfoque busca ayudar a las empresas a prepararse para cumplir con las regulaciones de transparencia, derechos de autor y mitigación de riesgos. Sin embargo, la carga de la IA responsable está comenzando a recaer sobre las organizaciones que implementan la tecnología.

Randall advierte que todas las organizaciones que operen en Europa necesitarán desarrollar sus propios manuales de riesgos de IA, que incluyan verificaciones de impacto en la privacidad y registros de procedencia, para evitar daños contractuales, regulatorios y reputacionales.

El futuro de la regulación de IA

Si la administración estadounidense y otros países siguen este enfoque menos regulatorio, se podría crear un paisaje de regulación ligera con menor supervisión federal. En enero, la administración emitió la Orden Ejecutiva 14179, «Eliminando Barreras para el Liderazgo Americano en Inteligencia Artificial», lo que indica un cambio hacia un marco regulatorio más laxo.

Bill Wong, investigador de IA en Info-Tech Research Group, señala que esta nueva guía parece alentar a los socios a alinearse con la postura de desregulación de la orden ejecutiva, lo que podría tener implicaciones significativas para la industria de la IA a nivel global.

Conclusiones

La situación actual respecto a la regulación de la IA plantea importantes interrogantes sobre cómo las empresas, desde startups hasta grandes corporaciones, deben manejar los temas de privacidad, derechos de autor y seguridad de los modelos. En un entorno donde las reglas son menos claras, cada empresa deberá trazar su propio camino, lo que podría resultar en un enfoque desigual hacia la IA responsable.

Los CIOs deben considerar los controles de IA responsable como una parte fundamental de su infraestructura, y no simplemente como un proyecto secundario. La presión del gobierno y la industria para adoptar un enfoque más flexible en la regulación de la IA está en aumento, y su impacto en el futuro de la tecnología será significativo.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...