EE. UU. busca eliminar el código de práctica de la Ley de IA de la UE

Estados Unidos busca eliminar el código de prácticas de la Ley de IA de la UE

La reciente presión del presidente de los Estados Unidos, Donald Trump, sobre los reguladores europeos para que deshechen el código de prácticas de la Ley de IA de la Unión Europea (UE) ha generado un intenso debate sobre el futuro de la regulación de la inteligencia artificial (IA). Se argumenta que este código, que tiene como objetivo promover el desarrollo de una IA más transparente y consciente de los derechos de autor, podría sofocar la innovación y crear cargas innecesarias para las empresas.

Un marco regulatorio en evolución

A pesar de que la Ley de IA de la UE parece estar en su fase final, los interesados continúan redactando el código de prácticas que establecerá reglas para los modelos de IA de propósito general (GPAI), incluidos aquellos que presentan riesgos sistémicos. Sin embargo, a medida que se acerca la fecha límite de redacción, la administración estadounidense ha comenzado a cuestionar la necesidad y la viabilidad de estas regulaciones.

Críticas al código de prácticas

Los críticos argumentan que el borrador del código impone obligaciones adicionales, como pruebas de modelos por terceros y divulgación completa de los datos de entrenamiento, que van más allá de lo que estipula el texto legalmente vinculante de la Ley de IA. Thomas Randall, director de investigación de mercado de IA en Info-Tech Research Group, afirma que estas exigencias son difíciles de implementar a gran escala.

La responsabilidad se traslada a las empresas

La Comisión Europea ha declarado que el código debería ser una herramienta central para que los proveedores demuestren su cumplimiento con la Ley de IA, aunque su aplicación es voluntaria. Este enfoque busca ayudar a las empresas a prepararse para cumplir con las regulaciones de transparencia, derechos de autor y mitigación de riesgos. Sin embargo, la carga de la IA responsable está comenzando a recaer sobre las organizaciones que implementan la tecnología.

Randall advierte que todas las organizaciones que operen en Europa necesitarán desarrollar sus propios manuales de riesgos de IA, que incluyan verificaciones de impacto en la privacidad y registros de procedencia, para evitar daños contractuales, regulatorios y reputacionales.

El futuro de la regulación de IA

Si la administración estadounidense y otros países siguen este enfoque menos regulatorio, se podría crear un paisaje de regulación ligera con menor supervisión federal. En enero, la administración emitió la Orden Ejecutiva 14179, «Eliminando Barreras para el Liderazgo Americano en Inteligencia Artificial», lo que indica un cambio hacia un marco regulatorio más laxo.

Bill Wong, investigador de IA en Info-Tech Research Group, señala que esta nueva guía parece alentar a los socios a alinearse con la postura de desregulación de la orden ejecutiva, lo que podría tener implicaciones significativas para la industria de la IA a nivel global.

Conclusiones

La situación actual respecto a la regulación de la IA plantea importantes interrogantes sobre cómo las empresas, desde startups hasta grandes corporaciones, deben manejar los temas de privacidad, derechos de autor y seguridad de los modelos. En un entorno donde las reglas son menos claras, cada empresa deberá trazar su propio camino, lo que podría resultar en un enfoque desigual hacia la IA responsable.

Los CIOs deben considerar los controles de IA responsable como una parte fundamental de su infraestructura, y no simplemente como un proyecto secundario. La presión del gobierno y la industria para adoptar un enfoque más flexible en la regulación de la IA está en aumento, y su impacto en el futuro de la tecnología será significativo.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...