Movimientos de política de EE. UU. ante los desafíos de la IA en las grandes empresas

Movimientos de Políticas de EE. UU. Reflejan Problemas de las Grandes Tecnologías con las Leyes Estatales de IA

La reciente propuesta de los Republicanos de la Cámara de un moratorio de 10 años sobre las leyes estatales de IA refleja la creciente preocupación entre las empresas tecnológicas sobre el parcheado creciente de medidas de privacidad de datos y regulaciones de IA en los estados.

Con el objetivo de aliviar la presión de las leyes estatales, la ley One Big Beautiful Bill Act del presidente Donald Trump propone un moratorio que detendría la implementación de leyes estatales sobre IA mientras el Congreso trabaja en una nueva legislación federal sobre privacidad de datos.

Propuesta y Votación

La Cámara de Representantes de EE. UU. aprobó un extenso paquete de políticas fiscales y domésticas que incluye la suspensión de la aplicación de leyes estatales de IA. Este paquete fue aprobado por un ajustado voto de 215-214, con todos los demócratas de la cámara votando en contra.

La inclusión de la detención de la aplicación de leyes estatales de IA se aplica a cualquier ley o regulación que limite o regule los sistemas de inteligencia artificial y sistemas de decisión automatizados que ingresan al comercio interestatal.

Según la analista de Gartner, Lydia Clougherty Jones, esta propuesta representa un cambio en la política del gobierno federal respecto a la IA. A pesar de que la propuesta requerirá más aprobaciones en el Senado, se sugiere que el sector privado debería prepararse para un futuro más deregulado.

Preocupaciones de las Empresas de Tecnología

Las grandes empresas tecnológicas han abogado por políticas federales que antepongan las leyes estatales de IA. En comentarios enviados a la Oficina de Ciencia y Tecnología del Presidente, OpenAI y Google han criticado las leyes estatales de IA por considerarlas excesivamente gravosas y caóticas, respectivamente.

Sin embargo, las dos últimas leyes federales de privacidad de datos introducidas en el Congreso no lograron ser aprobadas. Durante una audiencia reciente sobre la regulación de la IA, la representante Lori Trahan (D-Mass.) criticó a las empresas tecnológicas, acusándolas de haber hecho lobby para detener los esfuerzos federales que incluyen medidas que no les agradan, como la minimización de la recolección de datos.

Impacto de las Leyes de Privacidad de Datos Estatales

Recientemente, Google alcanzó un acuerdo de privacidad de datos con el estado de Texas por casi 1.4 mil millones de dólares. El fiscal general de Texas, Ken Paxton, demandó a Google en 2022 por rastrear usuarios y recolectar datos biométricos y de geolocalización sin autorización.

Paxton calificó el acuerdo como una victoria para la privacidad de los texanos, afirmando que envía un mensaje claro a las empresas de que enfrentarán consecuencias por abusar de la confianza pública.

Preparativos para un Moratorio sobre las Leyes de IA Estatales

A medida que múltiples estados de EE. UU. implementan leyes de privacidad de datos, otros, como Utah, California y Colorado, han comenzado a establecer leyes sobre IA. Al igual que las preocupaciones sobre el parcheo de las leyes de privacidad de datos, la variedad de leyes estatales sobre IA es vista como un obstáculo para la innovación empresarial.

Con el moratorio propuesto sobre las leyes de IA estatales, Clougherty Jones sugiere que los estados pueden ver limitadas sus capacidades para hacer cumplir ciertas regulaciones.

Las organizaciones deben considerar cómo esta propuesta, si se promulga, impactará sus ambiciones en torno a la toma de decisiones aumentadas por IA, ya que se espera que el 50% de las decisiones empresariales sean automatizadas o asistidas por agentes de IA autónomos para 2027.

Conclusiones

Es fundamental que el gobierno federal se mantenga al día con los avances tecnológicos. A medida que la IA continúa evolucionando, la necesidad de marcos legales que responsabilicen a los proveedores de IA se vuelve más apremiante.

La comprensión de los riesgos asociados con el uso de herramientas de IA es esencial para garantizar que se utilicen de manera ética y responsable.

More Insights

Código de Práctica de IA de Uso General de la Comisión Europea

El 10 de julio de 2025, la Comisión Europea publicó la versión final del Código de Práctica para la IA de Propósito General, tres semanas antes de que entren en vigor las obligaciones relacionadas con...

Código de Práctica de la UE para la IA: Clave para el Cumplimiento

La Unión Europea ha publicado un nuevo código de prácticas voluntario para ayudar a las empresas a cumplir con su próxima Ley de IA. Este código se centra en áreas clave como las obligaciones de...

Responsabilidad en IA: Reformando la Adquisición Pública

En 2018, se reveló que el Departamento de Policía de Nueva Orleans estaba utilizando un software de policía predictiva de Palantir, lo que generó preocupaciones sobre el sesgo racial. Este caso...

Tokio Marine implementa un marco de gobernanza para la IA

Tokio Marine Holdings ha introducido un marco formal de gobernanza de IA para guiar cómo sus empresas del grupo global desarrollan y utilizan la inteligencia artificial. La política, anunciada el 16...

La Explosión de la IA Sombra: Urgente Necesidad de Gobernanza

La inteligencia artificial generativa (GenAI) ya está profundamente integrada en las empresas, aunque los gerentes no siempre se dan cuenta. Esto se conoce como Shadow AI: el uso no aprobado y no...

La Fragmentación y Captura en la Regulación de la IA

En una nueva investigación, Filippo Lancieri, Laura Edelson y Stefan Bechtold exploran cómo la economía política de la regulación de la inteligencia artificial está condicionada por el comportamiento...