Prohibición de Regulación de IA por Estados Aprobada en la Cámara de Representantes de EE. UU.

La Propuesta de Moratoria sobre la Regulación de la IA a Nivel Estatal

El Cámara de Representantes de EE. UU. ha aprobado un proyecto de ley de presupuesto federal que incluye una controvertida moratoria de 10 años sobre la regulación de la inteligencia artificial (IA) por parte de los estados. Esta legislación ahora se dirige al Senado de EE. UU. para su consideración.

Controversias y Reacciones

La propuesta de moratoria ha enfrentado una considerable resistencia, con expertos argumentando que su lenguaje impide a los estados hacer cumplir las leyes que han aprobado, socavando así sus esfuerzos para proteger y servir a los residentes. El One Big Beautiful Bill Act, que propone esta moratoria sobre la regulación de la IA, fue aprobado por la Cámara con una votación de 215 a 214.

La legislación establece que ningún gobierno estatal o local “puede hacer cumplir ninguna ley o regulación que regule modelos de inteligencia artificial, sistemas de inteligencia artificial o decisiones automatizadas” durante la próxima década.

Impacto en la Legislación Estatal

Travis Hall, director de Centro para la Democracia y la Tecnología, expresó en una declaración que esto “ataría las manos” de los funcionarios a nivel estatal para hacer cumplir leyes centradas en herramientas de IA. Por otro lado, Brad Carson, presidente de Americans for Responsible Innovation, advirtió que prevenir que los legisladores estatales implementen salvaguardias de IA pone en riesgo a los estadounidenses frente a sus posibles daños, que pueden incluir sesgos, desinformación y problemas de seguridad de datos.

Desafíos en el Senado

Se espera que el proyecto de ley enfrente desafíos en el Senado debido a la Regla Byrd, adoptada en 1985 para preservar el proceso de reforma presupuestaria. Esta regla prohíbe la inclusión de “materia extranea” en la reconciliación, aplicándose a asuntos que no produzcan un cambio en los gastos o ingresos.

Tim Storey, director ejecutivo de National Conference of State Legislatures, advirtió que una disposición que preempte ampliamente las leyes de IA estatales violaría la Regla Byrd, ya que su principal propósito es limitar la autoridad legislativa estatal.

Opiniones de los Funcionarios Estatales

En respuesta a la situación, 40 fiscales generales estatales firmaron una carta a los líderes del Congreso oponiéndose a la enmienda. En esta carta, argumentaron que el impacto de una moratoria tan amplia sería “destructivo” de los esfuerzos razonables de los estados para prevenir daños conocidos asociados con la IA.

Entre las leyes específicas mencionadas, se incluyen aquellas que protegen contra material explícito generado por IA, deepfakes diseñados para engañar a los votantes y consumidores, y sistemas de fijación de alquileres algorítmicos.

Perspectivas Futuras

Los expertos han especulado sobre cómo sería la política de IA bajo esta administración, anticipando un cierto nivel de deregulación federal, pero también esperando que los gobiernos estatales y locales continúen implementando sus propias protecciones.

Durante una audiencia en la Cámara de Comercio de EE. UU., se plantearon preocupaciones sobre la propuesta, destacando que son los CEO de grandes tecnológicas, y no las familias estadounidenses, quienes se beneficiarán de la moratoria.

A pesar de la oposición, algunos funcionarios estatales, como el gobernador de Colorado, Jared Polis, han mostrado cierto apoyo a la moratoria de 10 años, citando que su estado tiene políticas de IA generativa alineadas con los estándares federales.

En conclusión, la moratoria sobre la regulación estatal de la IA representa un punto crítico en el debate sobre la gobernanza de esta tecnología emergente, y su futuro dependerá de las decisiones que tomen los legisladores en los próximos meses.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...