Microsoft y el Código de Práctica de IA de la UE: La Respuesta de Meta

Microsoft y el Código de Práctica de IA de la UE

El presidente de Microsoft, Brad Smith, ha indicado que la compañía está probablemente dispuesta a firmar el Código de Práctica de IA de la Unión Europea, diseñado para asegurar el cumplimiento de las regulaciones de inteligencia artificial del bloque. En contraste, Meta Platforms ha rechazado firmar este código, citando incertidumbres legales y preocupaciones sobre cómo podría obstaculizar el desarrollo de tecnologías de IA en Europa.

Detalles del Código de Práctica

Este código, que es voluntario, exige a las empresas que divulguen los datos de entrenamiento utilizados y cumplan con las leyes de derechos de autor de la UE. Forma parte de la Ley de Inteligencia Artificial, que entró en vigor en junio de 2024 y afecta a importantes compañías como Alphabet, OpenAI y, por supuesto, Meta.

La voluntad de Microsoft de firmar el código refleja un compromiso con la regulación responsable de la inteligencia artificial. Smith mencionó que es esencial para la empresa leer detenidamente los documentos y encontrar formas de apoyar la normativa, a la vez que resaltó la importancia del compromiso directo de la oficina de IA de la UE con la industria.

Reacciones de Meta Platforms

Por otro lado, Meta ha reiterado su oposición al código, afirmando que introduce incertidumbres legales para los desarrolladores de modelos y que algunas medidas van mucho más allá del alcance de la Ley de IA. Joel Kaplan, el director global de asuntos públicos de Meta, expresó que el código podría ahogar el desarrollo y despliegue de modelos de IA avanzados en Europa.

Implicaciones para la Industria de IA

El rechazo de Meta y la aceptación de Microsoft reflejan una división en la industria sobre cómo abordar la regulación en el ámbito de la inteligencia artificial. A medida que la Ley de IA se implementa, compañías como OpenAI y Mistral, que ya han firmado el código, podrían estar en una mejor posición para navegar las nuevas regulaciones que las que opten por no participar.

Al final, este desarrollo destaca la necesidad de un equilibrio entre la regulación y la innovación, un desafío que enfrentan no solo las empresas de tecnología, sino también los legisladores europeos que buscan crear un marco que fomente la responsabilidad sin frenar el avance tecnológico.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...