Microsoft y el Código de Práctica de IA de la UE: La Respuesta de Meta

Microsoft y el Código de Práctica de IA de la UE

El presidente de Microsoft, Brad Smith, ha indicado que la compañía está probablemente dispuesta a firmar el Código de Práctica de IA de la Unión Europea, diseñado para asegurar el cumplimiento de las regulaciones de inteligencia artificial del bloque. En contraste, Meta Platforms ha rechazado firmar este código, citando incertidumbres legales y preocupaciones sobre cómo podría obstaculizar el desarrollo de tecnologías de IA en Europa.

Detalles del Código de Práctica

Este código, que es voluntario, exige a las empresas que divulguen los datos de entrenamiento utilizados y cumplan con las leyes de derechos de autor de la UE. Forma parte de la Ley de Inteligencia Artificial, que entró en vigor en junio de 2024 y afecta a importantes compañías como Alphabet, OpenAI y, por supuesto, Meta.

La voluntad de Microsoft de firmar el código refleja un compromiso con la regulación responsable de la inteligencia artificial. Smith mencionó que es esencial para la empresa leer detenidamente los documentos y encontrar formas de apoyar la normativa, a la vez que resaltó la importancia del compromiso directo de la oficina de IA de la UE con la industria.

Reacciones de Meta Platforms

Por otro lado, Meta ha reiterado su oposición al código, afirmando que introduce incertidumbres legales para los desarrolladores de modelos y que algunas medidas van mucho más allá del alcance de la Ley de IA. Joel Kaplan, el director global de asuntos públicos de Meta, expresó que el código podría ahogar el desarrollo y despliegue de modelos de IA avanzados en Europa.

Implicaciones para la Industria de IA

El rechazo de Meta y la aceptación de Microsoft reflejan una división en la industria sobre cómo abordar la regulación en el ámbito de la inteligencia artificial. A medida que la Ley de IA se implementa, compañías como OpenAI y Mistral, que ya han firmado el código, podrían estar en una mejor posición para navegar las nuevas regulaciones que las que opten por no participar.

Al final, este desarrollo destaca la necesidad de un equilibrio entre la regulación y la innovación, un desafío que enfrentan no solo las empresas de tecnología, sino también los legisladores europeos que buscan crear un marco que fomente la responsabilidad sin frenar el avance tecnológico.

More Insights

Guía Práctica de IA Responsable para Desarrolladores .NET

La era de la Inteligencia Artificial (IA) está sucediendo ahora, y aunque ofrece velocidad y precisión en sectores como la banca y la salud, plantea desafíos éticos sobre su confianza. Para abordar...

Ley de Transparencia en IA: Un Hito en California

Los legisladores de California han hecho historia al aprobar una ley pionera sobre la transparencia en inteligencia artificial que se centra en los "modelos fronterizos", los sistemas de inteligencia...

Desafíos legales del uso de IA en el proceso de contratación

El uso de herramientas de IA en el proceso de solicitud permite a las empresas optimizar sus procesos, pero los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no...

Los Cuatro Pilares de los Guardrails en GenAI: Construyendo Sistemas de IA Responsables

A medida que la inteligencia artificial generativa transforma cómo operan las empresas, es fundamental implementar sistemas de guardrails para asegurar un despliegue responsable. Estos guardrails, que...

IA Responsable para Mercados Emergentes: Inclusión desde el Diseño

La inteligencia artificial está transformando el mundo, pero los beneficios no llegan a todos de manera equitativa. Es fundamental diseñar sistemas de IA inclusivos que aborden las barreras de...