El apoyo de las grandes tecnológicas a la propuesta de Trump para regular la IA

El apoyo de las grandes tecnologías a la propuesta del presidente Trump para aliviar las regulaciones sobre la IA

La propuesta del presidente de EE. UU., Donald Trump, de adoptar un enfoque regulatorio más flexible para la inteligencia artificial (IA) ha recibido un respaldo significativo por parte de empresas tecnológicas como Google, Meta, OpenAI respaldada por Microsoft, y Anthropic respaldada por Amazon.

Contexto de la propuesta

En sus contribuciones individuales al Plan de Acción de IA de la Casa Blanca, estas empresas argumentan que relajar las normas sobre la construcción de modelos de lenguaje grandes (LLMs) y otras herramientas de IA es crucial para mantener la ventaja competitiva de EE. UU. frente a China. Un ejemplo notable es el inicio de la empresa china DeepSeek, que sorprendió a Silicon Valley al afirmar haber desarrollado un modelo de IA de vanguardia a un costo de desarrollo significativamente menor que sus competidores estadounidenses.

Desde su toma de posesión en enero, los esfuerzos del presidente Trump han señalado un cambio de enfoque hacia el desarrollo acelerado de la IA, dejando de lado las preocupaciones sobre los riesgos de la IA, como las alucinaciones, deepfakes y la desplazamiento laboral.

Revocación de regulaciones anteriores

Trump también ha revocado la orden ejecutiva del expresidente Joe Biden, que había propuesto ciertos controles para los modelos de IA potentes. “El futuro de la IA no se ganará preocupándose por la seguridad”, comentó el vicepresidente JD Vance en la Cumbre de Acción de IA celebrada en París el mes pasado.

Propuesta del Plan de Acción de IA de Trump

Enfatizando la necesidad de que EE. UU. mantenga su posición como el “líder indiscutible en tecnología de IA”, la administración Trump invitó a los líderes de la industria a responder a un plan de acción de IA que se espera sea redactado en los próximos meses de verano, según un informe de AFP.

En su propuesta de política, OpenAI calificó los modelos de IA de DeepSeek como “subvencionados por el estado” y “controlados por el estado”, lo que representa riesgos para la privacidad y la seguridad. La empresa abogó por proteger el desarrollo de la IA «tanto de poderes autocráticos que quitarían las libertades de las personas, como de capas de leyes y burocracia que impedirían la realización de estas libertades”.

Además, OpenAI argumentó que debería permitírsele entrenar sus modelos de IA en contenido protegido por derechos de autor bajo la excepción de uso justo. “Sin acceso de uso justo a material protegido por derechos de autor… América pierde, al igual que el éxito de una IA democrática”, dijo el creador de ChatGPT.

Opiniones de otras empresas tecnológicas

La respuesta de Meta subrayó que «los modelos de código abierto son esenciales para que EE. UU. gane la carrera de la IA contra China y asegure el dominio estadounidense en IA». La respuesta de Google se centró en la inversión en infraestructura para los sustanciales requerimientos energéticos de la IA, y argumentó en contra de las regulaciones estatales sobre la IA en EE. UU.

Por otro lado, un grupo de artistas populares y celebridades de Hollywood, como Ben Stiller y Cynthia Erivo, rechazó el argumento de uso justo presentado por las empresas tecnológicas para justificar el entrenamiento de IA en material protegido por derechos de autor.

Perspectivas en Europa

El enfoque flexible de Trump hacia la regulación de la IA no se alinea exactamente con los esfuerzos de la Unión Europea (UE), que adoptó la histórica Ley de IA en 2024 para mantener la tecnología bajo control. Los funcionarios de la UE también están ahora cambiando su mensaje hacia la inversión y la innovación en lugar de la seguridad, según informes. Sin embargo, el bloque sigue comprometido a imponer regulaciones estrictas contra las grandes empresas tecnológicas.

Recientemente, la Comisión Europea anunció dos importantes decisiones de aplicación antimonopolio contra Google y Apple. En sus hallazgos preliminares, el organismo ejecutivo de la UE afirmó que la empresa matriz de Google, Alphabet, había violado casi con certeza las disposiciones de la Ley de Mercados Digitales (DMA).

Una vez que los hallazgos sean concluyentes, la UE podría imponer multas a Google que asciendan al 10 por ciento de sus ingresos anuales globales.

Además, la Comisión detalló pasos para que Apple cumpla con la DMA, específicamente la disposición de la legislación de competencia que exige a los ‘guardianes’ designados hacer que sus productos sean más fáciles y efectivamente interoperables con dispositivos y servicios de terceros.

“Los dos hallazgos preliminares que adoptamos hoy tienen como objetivo asegurar que Alphabet cumpla con las reglas de la UE en lo que respecta a dos servicios ampliamente utilizados por empresas y consumidores en toda la UE, Google Search y teléfonos Android”, fue citado diciendo Teresa Ribera, la comisionada de competencia de la UE, por Fortune.

En respuesta, Apple declaró: “Las decisiones de hoy nos envuelven en burocracia, ralentizando nuestra capacidad de innovar para los usuarios en Europa y obligándonos a regalar nuestras nuevas funciones a empresas que no tienen que seguir las mismas reglas. Es perjudicial para nuestros productos y para nuestros usuarios europeos. Continuaremos trabajando con la Comisión Europea para ayudarles a comprender nuestras preocupaciones en nombre de nuestros usuarios”.

More Insights

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...

Guía esencial de la AMA para la adopción y gobernanza de la IA en el sector salud

La AMA ha publicado una guía sobre la adopción y gobernanza de la inteligencia artificial (IA) para sistemas de salud, destacando la importancia de establecer políticas adecuadas en un entorno...

La ONU establece un panel sobre IA y un diálogo global para su gobernanza

La Asamblea General de las Naciones Unidas ha adoptado una resolución para establecer un Panel Científico Internacional Independiente sobre Inteligencia Artificial y un Diálogo Global sobre la...

La próxima ola de amenazas cibernéticas: del envenenamiento de datos a los agentes de IA

A medida que la inteligencia artificial (IA) se adopta rápidamente en diversas industrias, también aumenta la exposición a riesgos cibernéticos. Los modelos de IA generativa están creando nuevas...

Ética y Gobernanza de la IA en el Sudeste Asiático

En este artículo, Nguyen Hoang Minh Ngoc explora el panorama actual de la gobernanza y la ética de la inteligencia artificial (IA) en los seis países del sudeste asiático. Se destaca la necesidad de...