Estados Unidos busca eliminar el código de prácticas de la Ley de IA de la UE
La reciente presión del presidente de los Estados Unidos, Donald Trump, sobre los reguladores europeos para que deshechen el código de prácticas de la Ley de IA de la Unión Europea (UE) ha generado un intenso debate sobre el futuro de la regulación de la inteligencia artificial (IA). Se argumenta que este código, que tiene como objetivo promover el desarrollo de una IA más transparente y consciente de los derechos de autor, podría sofocar la innovación y crear cargas innecesarias para las empresas.
Un marco regulatorio en evolución
A pesar de que la Ley de IA de la UE parece estar en su fase final, los interesados continúan redactando el código de prácticas que establecerá reglas para los modelos de IA de propósito general (GPAI), incluidos aquellos que presentan riesgos sistémicos. Sin embargo, a medida que se acerca la fecha límite de redacción, la administración estadounidense ha comenzado a cuestionar la necesidad y la viabilidad de estas regulaciones.
Críticas al código de prácticas
Los críticos argumentan que el borrador del código impone obligaciones adicionales, como pruebas de modelos por terceros y divulgación completa de los datos de entrenamiento, que van más allá de lo que estipula el texto legalmente vinculante de la Ley de IA. Thomas Randall, director de investigación de mercado de IA en Info-Tech Research Group, afirma que estas exigencias son difíciles de implementar a gran escala.
La responsabilidad se traslada a las empresas
La Comisión Europea ha declarado que el código debería ser una herramienta central para que los proveedores demuestren su cumplimiento con la Ley de IA, aunque su aplicación es voluntaria. Este enfoque busca ayudar a las empresas a prepararse para cumplir con las regulaciones de transparencia, derechos de autor y mitigación de riesgos. Sin embargo, la carga de la IA responsable está comenzando a recaer sobre las organizaciones que implementan la tecnología.
Randall advierte que todas las organizaciones que operen en Europa necesitarán desarrollar sus propios manuales de riesgos de IA, que incluyan verificaciones de impacto en la privacidad y registros de procedencia, para evitar daños contractuales, regulatorios y reputacionales.
El futuro de la regulación de IA
Si la administración estadounidense y otros países siguen este enfoque menos regulatorio, se podría crear un paisaje de regulación ligera con menor supervisión federal. En enero, la administración emitió la Orden Ejecutiva 14179, «Eliminando Barreras para el Liderazgo Americano en Inteligencia Artificial», lo que indica un cambio hacia un marco regulatorio más laxo.
Bill Wong, investigador de IA en Info-Tech Research Group, señala que esta nueva guía parece alentar a los socios a alinearse con la postura de desregulación de la orden ejecutiva, lo que podría tener implicaciones significativas para la industria de la IA a nivel global.
Conclusiones
La situación actual respecto a la regulación de la IA plantea importantes interrogantes sobre cómo las empresas, desde startups hasta grandes corporaciones, deben manejar los temas de privacidad, derechos de autor y seguridad de los modelos. En un entorno donde las reglas son menos claras, cada empresa deberá trazar su propio camino, lo que podría resultar en un enfoque desigual hacia la IA responsable.
Los CIOs deben considerar los controles de IA responsable como una parte fundamental de su infraestructura, y no simplemente como un proyecto secundario. La presión del gobierno y la industria para adoptar un enfoque más flexible en la regulación de la IA está en aumento, y su impacto en el futuro de la tecnología será significativo.