El apoyo de las grandes tecnológicas a la propuesta de Trump para regular la IA

El apoyo de las grandes tecnologías a la propuesta del presidente Trump para aliviar las regulaciones sobre la IA

La propuesta del presidente de EE. UU., Donald Trump, de adoptar un enfoque regulatorio más flexible para la inteligencia artificial (IA) ha recibido un respaldo significativo por parte de empresas tecnológicas como Google, Meta, OpenAI respaldada por Microsoft, y Anthropic respaldada por Amazon.

Contexto de la propuesta

En sus contribuciones individuales al Plan de Acción de IA de la Casa Blanca, estas empresas argumentan que relajar las normas sobre la construcción de modelos de lenguaje grandes (LLMs) y otras herramientas de IA es crucial para mantener la ventaja competitiva de EE. UU. frente a China. Un ejemplo notable es el inicio de la empresa china DeepSeek, que sorprendió a Silicon Valley al afirmar haber desarrollado un modelo de IA de vanguardia a un costo de desarrollo significativamente menor que sus competidores estadounidenses.

Desde su toma de posesión en enero, los esfuerzos del presidente Trump han señalado un cambio de enfoque hacia el desarrollo acelerado de la IA, dejando de lado las preocupaciones sobre los riesgos de la IA, como las alucinaciones, deepfakes y la desplazamiento laboral.

Revocación de regulaciones anteriores

Trump también ha revocado la orden ejecutiva del expresidente Joe Biden, que había propuesto ciertos controles para los modelos de IA potentes. “El futuro de la IA no se ganará preocupándose por la seguridad”, comentó el vicepresidente JD Vance en la Cumbre de Acción de IA celebrada en París el mes pasado.

Propuesta del Plan de Acción de IA de Trump

Enfatizando la necesidad de que EE. UU. mantenga su posición como el “líder indiscutible en tecnología de IA”, la administración Trump invitó a los líderes de la industria a responder a un plan de acción de IA que se espera sea redactado en los próximos meses de verano, según un informe de AFP.

En su propuesta de política, OpenAI calificó los modelos de IA de DeepSeek como “subvencionados por el estado” y “controlados por el estado”, lo que representa riesgos para la privacidad y la seguridad. La empresa abogó por proteger el desarrollo de la IA «tanto de poderes autocráticos que quitarían las libertades de las personas, como de capas de leyes y burocracia que impedirían la realización de estas libertades”.

Además, OpenAI argumentó que debería permitírsele entrenar sus modelos de IA en contenido protegido por derechos de autor bajo la excepción de uso justo. “Sin acceso de uso justo a material protegido por derechos de autor… América pierde, al igual que el éxito de una IA democrática”, dijo el creador de ChatGPT.

Opiniones de otras empresas tecnológicas

La respuesta de Meta subrayó que «los modelos de código abierto son esenciales para que EE. UU. gane la carrera de la IA contra China y asegure el dominio estadounidense en IA». La respuesta de Google se centró en la inversión en infraestructura para los sustanciales requerimientos energéticos de la IA, y argumentó en contra de las regulaciones estatales sobre la IA en EE. UU.

Por otro lado, un grupo de artistas populares y celebridades de Hollywood, como Ben Stiller y Cynthia Erivo, rechazó el argumento de uso justo presentado por las empresas tecnológicas para justificar el entrenamiento de IA en material protegido por derechos de autor.

Perspectivas en Europa

El enfoque flexible de Trump hacia la regulación de la IA no se alinea exactamente con los esfuerzos de la Unión Europea (UE), que adoptó la histórica Ley de IA en 2024 para mantener la tecnología bajo control. Los funcionarios de la UE también están ahora cambiando su mensaje hacia la inversión y la innovación en lugar de la seguridad, según informes. Sin embargo, el bloque sigue comprometido a imponer regulaciones estrictas contra las grandes empresas tecnológicas.

Recientemente, la Comisión Europea anunció dos importantes decisiones de aplicación antimonopolio contra Google y Apple. En sus hallazgos preliminares, el organismo ejecutivo de la UE afirmó que la empresa matriz de Google, Alphabet, había violado casi con certeza las disposiciones de la Ley de Mercados Digitales (DMA).

Una vez que los hallazgos sean concluyentes, la UE podría imponer multas a Google que asciendan al 10 por ciento de sus ingresos anuales globales.

Además, la Comisión detalló pasos para que Apple cumpla con la DMA, específicamente la disposición de la legislación de competencia que exige a los ‘guardianes’ designados hacer que sus productos sean más fáciles y efectivamente interoperables con dispositivos y servicios de terceros.

“Los dos hallazgos preliminares que adoptamos hoy tienen como objetivo asegurar que Alphabet cumpla con las reglas de la UE en lo que respecta a dos servicios ampliamente utilizados por empresas y consumidores en toda la UE, Google Search y teléfonos Android”, fue citado diciendo Teresa Ribera, la comisionada de competencia de la UE, por Fortune.

En respuesta, Apple declaró: “Las decisiones de hoy nos envuelven en burocracia, ralentizando nuestra capacidad de innovar para los usuarios en Europa y obligándonos a regalar nuestras nuevas funciones a empresas que no tienen que seguir las mismas reglas. Es perjudicial para nuestros productos y para nuestros usuarios europeos. Continuaremos trabajando con la Comisión Europea para ayudarles a comprender nuestras preocupaciones en nombre de nuestros usuarios”.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...