La guerra inminente por la regulación de la IA en EE. UU.

La inminente guerra de América sobre la regulación de la IA

En las últimas semanas de 2025, la batalla por regular la inteligencia artificial (IA) en Estados Unidos alcanzó un punto crítico. El 11 de diciembre, tras dos intentos fallidos del Congreso para aprobar una ley que prohibiera las leyes estatales sobre IA, el presidente firmó una orden ejecutiva que busca limitar la regulación estatal de esta industria en auge. En cambio, prometió trabajar con el Congreso para establecer una política nacional de IA “mínimamente gravosa”, que posicione a Estados Unidos para ganar la carrera global de la IA. Esta decisión marcó una victoria cualificada para los gigantes tecnológicos, quienes han estado movilizando fondos multimillonarios para oponerse a las regulaciones de IA, argumentando que un mosaico de leyes estatales sofocaría la innovación.

El campo de batalla se traslada a los tribunales

En 2026, el campo de batalla se trasladará a los tribunales. Mientras algunos estados podrían retroceder en la aprobación de leyes sobre IA, otros avanzarán, impulsados por la creciente presión pública para proteger a los niños de los chatbots y controlar los centros de datos. A su vez, super PACs rivales, financiados por magnates tecnológicos y defensores de la seguridad de la IA, invertirán decenas de millones en elecciones para sentar a legisladores que apoyen sus visiones competidoras sobre la regulación de la IA.

La orden ejecutiva del presidente dirige al Departamento de Justicia a establecer un grupo de trabajo que demandará a los estados cuyas leyes sobre IA choquen con su visión de regulación suave. También instruye al Departamento de Comercio a privar a los estados de financiamiento federal de banda ancha si sus leyes sobre IA son “onerosas”. En la práctica, la orden podría dirigirse a un puñado de leyes en estados demócratas, enfocándose en cuestiones de transparencia y sesgo en la IA, que tienden a ser más liberales.

Leyes estatales en respuesta

Por ahora, muchos estados no están retrocediendo. El 19 de diciembre, la gobernadora de uno de esos estados firmó la Ley de Seguridad y Educación de IA Responsable (RAISE), que exige a las empresas de IA publicar los protocolos utilizados para garantizar el desarrollo seguro de sus modelos de IA y reportar incidentes críticos de seguridad. El 1 de enero, otro estado presentó la primera ley de seguridad de IA en la nación, SB 53, destinada a prevenir daños catastróficos como armas biológicas o ciberataques. Aunque ambas leyes fueron debilitadas tras la intensa presión de la industria, lograron un raro, aunque frágil, compromiso entre los gigantes tecnológicos y los defensores de la seguridad de la IA.

Implicaciones y riesgos

Si la orden del presidente ataca estas leyes arduamente logradas, los estados demócratas podrían llevar la lucha a los tribunales. Los estados republicanos que apoyan la regulación de la IA podrían seguir el mismo camino. Sin embargo, esto podría ser una batalla difícil para el presidente, ya que su administración se está extendiendo al intentar evitar la legislación a través de de acciones ejecutivas.

Mientras tanto, la presión pública por la regulación de la IA está creciendo a medida que los estadounidenses se preocupan por el impacto de la IA en la salud mental, los empleos y el medio ambiente. En 2025, los legisladores estatales introdujeron más de 1,000 proyectos de ley sobre IA, y casi 40 estados promulgaron más de 100 leyes, según un informe de la Conferencia Nacional de Legislaturas Estatales.

El futuro de la regulación de la IA

Con la creciente ansiedad sobre cómo la IA podría afectar a la sociedad, la demanda de regulación se intensifica. Sin acciones del Congreso, los estados serán los únicos en actuar para mantener a la industria de IA bajo control. Se espera que las iniciativas de seguridad infantil inspiren un consenso raro, como se evidenció en una reciente demanda contra una empresa de chatbots por su papel en trágicos incidentes.

A medida que los estados continúan avanzando en la regulación de la IA, el futuro de esta tecnología disruptiva dependerá en gran medida de las decisiones que se tomen en las capitales estatales, con implicaciones que podrían extenderse mucho más allá de las fronteras de Estados Unidos en los próximos años.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...