El apoyo de las grandes tecnológicas a la propuesta de Trump para regular la IA

El apoyo de las grandes tecnologías a la propuesta del presidente Trump para aliviar las regulaciones sobre la IA

La propuesta del presidente de EE. UU., Donald Trump, de adoptar un enfoque regulatorio más flexible para la inteligencia artificial (IA) ha recibido un respaldo significativo por parte de empresas tecnológicas como Google, Meta, OpenAI respaldada por Microsoft, y Anthropic respaldada por Amazon.

Contexto de la propuesta

En sus contribuciones individuales al Plan de Acción de IA de la Casa Blanca, estas empresas argumentan que relajar las normas sobre la construcción de modelos de lenguaje grandes (LLMs) y otras herramientas de IA es crucial para mantener la ventaja competitiva de EE. UU. frente a China. Un ejemplo notable es el inicio de la empresa china DeepSeek, que sorprendió a Silicon Valley al afirmar haber desarrollado un modelo de IA de vanguardia a un costo de desarrollo significativamente menor que sus competidores estadounidenses.

Desde su toma de posesión en enero, los esfuerzos del presidente Trump han señalado un cambio de enfoque hacia el desarrollo acelerado de la IA, dejando de lado las preocupaciones sobre los riesgos de la IA, como las alucinaciones, deepfakes y la desplazamiento laboral.

Revocación de regulaciones anteriores

Trump también ha revocado la orden ejecutiva del expresidente Joe Biden, que había propuesto ciertos controles para los modelos de IA potentes. “El futuro de la IA no se ganará preocupándose por la seguridad”, comentó el vicepresidente JD Vance en la Cumbre de Acción de IA celebrada en París el mes pasado.

Propuesta del Plan de Acción de IA de Trump

Enfatizando la necesidad de que EE. UU. mantenga su posición como el “líder indiscutible en tecnología de IA”, la administración Trump invitó a los líderes de la industria a responder a un plan de acción de IA que se espera sea redactado en los próximos meses de verano, según un informe de AFP.

En su propuesta de política, OpenAI calificó los modelos de IA de DeepSeek como “subvencionados por el estado” y “controlados por el estado”, lo que representa riesgos para la privacidad y la seguridad. La empresa abogó por proteger el desarrollo de la IA «tanto de poderes autocráticos que quitarían las libertades de las personas, como de capas de leyes y burocracia que impedirían la realización de estas libertades”.

Además, OpenAI argumentó que debería permitírsele entrenar sus modelos de IA en contenido protegido por derechos de autor bajo la excepción de uso justo. “Sin acceso de uso justo a material protegido por derechos de autor… América pierde, al igual que el éxito de una IA democrática”, dijo el creador de ChatGPT.

Opiniones de otras empresas tecnológicas

La respuesta de Meta subrayó que «los modelos de código abierto son esenciales para que EE. UU. gane la carrera de la IA contra China y asegure el dominio estadounidense en IA». La respuesta de Google se centró en la inversión en infraestructura para los sustanciales requerimientos energéticos de la IA, y argumentó en contra de las regulaciones estatales sobre la IA en EE. UU.

Por otro lado, un grupo de artistas populares y celebridades de Hollywood, como Ben Stiller y Cynthia Erivo, rechazó el argumento de uso justo presentado por las empresas tecnológicas para justificar el entrenamiento de IA en material protegido por derechos de autor.

Perspectivas en Europa

El enfoque flexible de Trump hacia la regulación de la IA no se alinea exactamente con los esfuerzos de la Unión Europea (UE), que adoptó la histórica Ley de IA en 2024 para mantener la tecnología bajo control. Los funcionarios de la UE también están ahora cambiando su mensaje hacia la inversión y la innovación en lugar de la seguridad, según informes. Sin embargo, el bloque sigue comprometido a imponer regulaciones estrictas contra las grandes empresas tecnológicas.

Recientemente, la Comisión Europea anunció dos importantes decisiones de aplicación antimonopolio contra Google y Apple. En sus hallazgos preliminares, el organismo ejecutivo de la UE afirmó que la empresa matriz de Google, Alphabet, había violado casi con certeza las disposiciones de la Ley de Mercados Digitales (DMA).

Una vez que los hallazgos sean concluyentes, la UE podría imponer multas a Google que asciendan al 10 por ciento de sus ingresos anuales globales.

Además, la Comisión detalló pasos para que Apple cumpla con la DMA, específicamente la disposición de la legislación de competencia que exige a los ‘guardianes’ designados hacer que sus productos sean más fáciles y efectivamente interoperables con dispositivos y servicios de terceros.

“Los dos hallazgos preliminares que adoptamos hoy tienen como objetivo asegurar que Alphabet cumpla con las reglas de la UE en lo que respecta a dos servicios ampliamente utilizados por empresas y consumidores en toda la UE, Google Search y teléfonos Android”, fue citado diciendo Teresa Ribera, la comisionada de competencia de la UE, por Fortune.

En respuesta, Apple declaró: “Las decisiones de hoy nos envuelven en burocracia, ralentizando nuestra capacidad de innovar para los usuarios en Europa y obligándonos a regalar nuestras nuevas funciones a empresas que no tienen que seguir las mismas reglas. Es perjudicial para nuestros productos y para nuestros usuarios europeos. Continuaremos trabajando con la Comisión Europea para ayudarles a comprender nuestras preocupaciones en nombre de nuestros usuarios”.

More Insights

Carrera Armamentista de IA y el Impacto de los Aranceles en la Innovación

Los aranceles pueden tener un impacto multifacético en el avance de la inteligencia artificial (IA) y la automatización, actuando como un posible obstáculo y, paradójicamente, un posible catalizador...

Plan de Acción de la Comisión Europea para la Soberanía en IA

La Comisión Europea ha lanzado su Plan de Acción para la IA, una estrategia integral destinada a establecer a Europa como líder global en inteligencia artificial. El plan se centra en aumentar la...

El Dilema del AI: Innovación y Regulación en Singapur

Singapur se prepara para celebrar seis décadas de progreso, mientras lanza su ambicioso Estrategia Nacional de IA 2.0, que se centra en la innovación y regulación de la inteligencia artificial. Sin...

IA Responsable en el Sector FinTech

Lexy Kassan discute los aspectos críticos de la inteligencia artificial responsable, centrándose en actualizaciones regulatorias como la Ley de IA de la UE y sus implicaciones para FinTech. Explica...

IA Centrada en el Humano: Hacia un Futuro Ético y Responsable

La inteligencia artificial centrada en el ser humano (HCAI) se refiere al desarrollo de sistemas de IA que priorizan los valores humanos y la colaboración entre humanos y máquinas. Este enfoque ético...

La Regulación de la IA en la UE: Un Cambio Decisivo

El Acta de Inteligencia Artificial de la UE establece un marco regulatorio uniforme para todos los estados miembros, buscando equilibrar la innovación con la seguridad de los ciudadanos. Se trata de...

Actualización de las Cláusulas Contractuales Modelos de IA de la UE

La Comunidad de Práctica de la UE sobre la Contratación Pública de IA ha publicado una versión actualizada de sus Cláusulas Contractuales Modelo de IA (MCC-AI) el 5 de marzo de 2025. Estas cláusulas...

Impacto de la Ley de IA de la UE en Sistemas de Reconocimiento Emocional en el Trabajo

La inteligencia artificial de reconocimiento emocional (Emotion AI) utiliza datos biométricos y otros conjuntos de datos para identificar y analizar emociones. Desde la entrada en vigor de la Ley de...