Obstáculos para la regulación federal de la IA en EE. UU.

Senador Cruz enfrenta obstáculos en su intento de anticipar los estándares estatales de IA

El senador de Texas, Ted Cruz, se encuentra en medio de un desafío significativo al intentar establecer reglas federales para la inteligencia artificial (IA) con el objetivo de evitar lo que él considera un caótico mosaico de leyes estatales. Este esfuerzo se complica por una intensa actividad legislativa en los estados, liderada actualmente por California.

Los intereses son altos, dado que el objetivo de Cruz y la Casa Blanca es controlar la situación a nivel estatal. Permitir que California tome la delantera en la configuración de estándares es crucial para el gobierno federal, ya que este estado es el indiscutido centro tecnológico del país, representando la economía tecnológica más grande y la mayor parte del PIB tecnológico de EE. UU.

Legislación en otros estados

Además de California, solo hay otros dos estados que están avanzando en la legislación de IA de manera significativa. El Responsible AI Safety and Education Act de Nueva York abarca riesgos asociados a la IA de frontera y se superpone al régimen de transparencia de California. Este proyecto fue aprobado por la Asamblea de Nueva York en junio. Por otro lado, el AI Transparency Act de Michigan también se enfoca en las obligaciones de transparencia de la industria y está pendiente de acción por parte del Comité de Reforma Regulatoria de la Cámara.

Iniciativas de Cruz

Tras presentar su marco legislativo de cinco pilares para fortalecer el liderazgo estadounidense en IA el 10 de septiembre y proponer su Sandbox Act, Cruz también se comprometió a revivir la moratoria de diez años sobre leyes estatales y locales de IA que fue eliminada del “One Big Beautiful Bill” de este verano por sus colegas republicanos. Ha habido divisiones dentro de la base de Trump en el Congreso.

El proyecto de ley está pendiente de acción por parte del Comité de Comercio, Ciencia y Transporte del Senado, que Cruz preside. Actualmente, el proyecto no tiene coauspiciadores, pero ha recibido apoyo de grupos comerciales de Big Tech como Abundance Institute, U.S. Chamber of Commerce y Information Technology Industry Council.

Actividades en California

Después del colapso dramático de la propuesta de moratoria federal sobre la regulación estatal de IA en julio, los legisladores de California vieron esto como una oportunidad para dar forma al marco que podría guiar las leyes de IA en el país. En los últimos días de sesión, los legisladores de California enviaron al gobernador Gavin Newsom dos proyectos de ley importantes: SB 53, un proyecto de ley de transparencia y seguridad para desarrolladores de IA de frontera, y SB 243, un primer marco en la nación para mitigar los riesgos de los chatbots de IA, particularmente para menores.

El SB 53 requeriría que los grandes fabricantes de modelos publiquen marcos de riesgo e informes de transparencia, y notifiquen a las autoridades estatales sobre incidentes de seguridad críticos. Esta legislación ha sido apoyada por la empresa de tecnología Anthropic, que ha declarado que este proyecto permitirá a los desarrolladores competir mientras aseguran la transparencia sobre las capacidades de la IA que presentan riesgos para la seguridad pública.

Protecciones para menores

El SB 243, por su parte, obligaría a los operadores de chatbots de IA a implementar protocolos de prevención del suicidio, restringir contenido sexual para menores y divulgar que los bots no son humanos, junto con un derecho privado de acción para las familias si los desarrolladores no cumplen. Este proyecto de ley fue justificado por la existencia de casos de suicidio en California y Florida.

Postura de la Casa Blanca

La Casa Blanca es escéptica respecto a permitir que Sacramento establezca el estándar nacional. En la cumbre de AI de Politico, el asesor principal de política de IA de la Casa Blanca, Sriram Krishnan, expresó claramente que “no queremos que California establezca las reglas de IA en todo el país”, considerando que las acciones estatales obstaculizan los planes de Washington para acelerar el desarrollo en una carrera con China.

Desafíos para Cruz

El desafío táctico más amplio para Cruz es que la actividad estatal que desea anticipar incluye su propio estado. En junio, el gobernador de Texas, Greg Abbott, firmó el Texas Responsible Artificial Intelligence Governance Act (TRAIGA), convirtiéndose en el segundo estado, después de Colorado, en promulgar una ley integral de IA. TRAIGA establece prácticas prohibidas, actualiza las reglas de consentimiento biométrico del estado y crea un consejo de IA de Texas.

Cruz argumenta que la fragmentación de los estándares estatales amenaza la competitividad de la IA en EE. UU. y genera pesadillas de cumplimiento para los desarrolladores. Su Sandbox Act es la prueba inmediata de su enfrentamiento entre federales y estatales, permitiendo que las empresas de IA soliciten exenciones de reglas federales específicas si divulgan y mitigan riesgos de seguridad y de consumidores.

Conclusión

Con las leyes de IA ya en algunos estados, el mosaico no es más una hipótesis. Esta es la realidad que Cruz debe navegar mientras busca establecer un marco federal que evite la fragmentación, favoreciendo la innovación y protegiendo a los consumidores.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...