Movimientos de política de EE. UU. ante los desafíos de la IA en las grandes empresas

Movimientos de Políticas de EE. UU. Reflejan Problemas de las Grandes Tecnologías con las Leyes Estatales de IA

La reciente propuesta de los Republicanos de la Cámara de un moratorio de 10 años sobre las leyes estatales de IA refleja la creciente preocupación entre las empresas tecnológicas sobre el parcheado creciente de medidas de privacidad de datos y regulaciones de IA en los estados.

Con el objetivo de aliviar la presión de las leyes estatales, la ley One Big Beautiful Bill Act del presidente Donald Trump propone un moratorio que detendría la implementación de leyes estatales sobre IA mientras el Congreso trabaja en una nueva legislación federal sobre privacidad de datos.

Propuesta y Votación

La Cámara de Representantes de EE. UU. aprobó un extenso paquete de políticas fiscales y domésticas que incluye la suspensión de la aplicación de leyes estatales de IA. Este paquete fue aprobado por un ajustado voto de 215-214, con todos los demócratas de la cámara votando en contra.

La inclusión de la detención de la aplicación de leyes estatales de IA se aplica a cualquier ley o regulación que limite o regule los sistemas de inteligencia artificial y sistemas de decisión automatizados que ingresan al comercio interestatal.

Según la analista de Gartner, Lydia Clougherty Jones, esta propuesta representa un cambio en la política del gobierno federal respecto a la IA. A pesar de que la propuesta requerirá más aprobaciones en el Senado, se sugiere que el sector privado debería prepararse para un futuro más deregulado.

Preocupaciones de las Empresas de Tecnología

Las grandes empresas tecnológicas han abogado por políticas federales que antepongan las leyes estatales de IA. En comentarios enviados a la Oficina de Ciencia y Tecnología del Presidente, OpenAI y Google han criticado las leyes estatales de IA por considerarlas excesivamente gravosas y caóticas, respectivamente.

Sin embargo, las dos últimas leyes federales de privacidad de datos introducidas en el Congreso no lograron ser aprobadas. Durante una audiencia reciente sobre la regulación de la IA, la representante Lori Trahan (D-Mass.) criticó a las empresas tecnológicas, acusándolas de haber hecho lobby para detener los esfuerzos federales que incluyen medidas que no les agradan, como la minimización de la recolección de datos.

Impacto de las Leyes de Privacidad de Datos Estatales

Recientemente, Google alcanzó un acuerdo de privacidad de datos con el estado de Texas por casi 1.4 mil millones de dólares. El fiscal general de Texas, Ken Paxton, demandó a Google en 2022 por rastrear usuarios y recolectar datos biométricos y de geolocalización sin autorización.

Paxton calificó el acuerdo como una victoria para la privacidad de los texanos, afirmando que envía un mensaje claro a las empresas de que enfrentarán consecuencias por abusar de la confianza pública.

Preparativos para un Moratorio sobre las Leyes de IA Estatales

A medida que múltiples estados de EE. UU. implementan leyes de privacidad de datos, otros, como Utah, California y Colorado, han comenzado a establecer leyes sobre IA. Al igual que las preocupaciones sobre el parcheo de las leyes de privacidad de datos, la variedad de leyes estatales sobre IA es vista como un obstáculo para la innovación empresarial.

Con el moratorio propuesto sobre las leyes de IA estatales, Clougherty Jones sugiere que los estados pueden ver limitadas sus capacidades para hacer cumplir ciertas regulaciones.

Las organizaciones deben considerar cómo esta propuesta, si se promulga, impactará sus ambiciones en torno a la toma de decisiones aumentadas por IA, ya que se espera que el 50% de las decisiones empresariales sean automatizadas o asistidas por agentes de IA autónomos para 2027.

Conclusiones

Es fundamental que el gobierno federal se mantenga al día con los avances tecnológicos. A medida que la IA continúa evolucionando, la necesidad de marcos legales que responsabilicen a los proveedores de IA se vuelve más apremiante.

La comprensión de los riesgos asociados con el uso de herramientas de IA es esencial para garantizar que se utilicen de manera ética y responsable.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...