Marco regulatorio federal para la inteligencia artificial en EE. UU.

Leyes de IA estatales bajo escrutinio federal: Puntos clave del decreto ejecutivo que establece el marco de política federal de IA

El 11 de diciembre de 2025, se firmó un decreto ejecutivo titulado “Asegurando un Marco de Política Nacional para la Inteligencia Artificial”, que establece una política federal destinada a abordar el creciente número de regulaciones de IA a nivel estatal que rigen el ecosistema de IA. El objetivo es «sostener y mejorar la dominancia global de Estados Unidos en IA a través de un marco de política nacional mínimamente gravoso para la IA».

Objetivos clave del decreto ejecutivo

El decreto ejecutivo establece un plan para frenar la proliferación de leyes de IA estatales y utilizar diversas herramientas federales para desincentivar y desafiar regulaciones estatales que estén en conflicto con las políticas de la administración. Algunos de los objetivos de política clave incluyen:

  • Tarea del Litigio de IA: Instrucción al Fiscal General para establecer un equipo de litigio de IA dentro de 30 días, con la responsabilidad principal de desafiar las leyes de IA estatales que no sean consistentes con la política.
  • Evaluación de las leyes de IA estatales: Instrucción al Secretario de Comercio para publicar una evaluación dentro de 90 días que identifique las leyes de IA estatales “gravosas” que deben ser referidas al equipo de litigio de IA.
  • Restricción a la asistencia federal: Instrucción a los departamentos y agencias ejecutivas para evaluar y/o condicionar la elegibilidad de un estado para financiamiento federal según si su marco regulatorio de IA se alinea con la política.
  • Estándar federal de informes y divulgación: Instrucción a la Comisión Federal de Comunicaciones para considerar la adopción de un estándar federal de informes y divulgación para modelos de IA que anule leyes estatales conflictivas.
  • Mandato de la FTC sobre modelos de IA: Instrucción a la Comisión Federal de Comercio para emitir una declaración de política sobre la aplicación de la ley de la FTC a modelos de IA y para identificar qué leyes estatales de IA requieren alterar los “resultados veraces” de estos modelos.
  • Recomendaciones legislativas: Instrucción al Asesor Especial de IA y Ciberseguridad y al Asistente del Presidente para Ciencia y Tecnología para preparar recomendaciones legislativas que establezcan un marco de política federal uniforme de IA que anule leyes estatales conflictivas.

Implicaciones y riesgos para los desarrolladores de IA

A medida que la interacción entre las iniciativas federales y los requisitos estatales existentes sigue siendo incierta, se deben considerar varios puntos clave:

  • Cumplimiento de las leyes de IA estatales: Dado que el Congreso aún no ha aprobado una ley federal de IA que anule las leyes estatales, las leyes de IA existentes seguirán vigentes en el corto plazo. Las empresas deben seguir cumpliendo con las leyes de IA estatales hasta que haya mayor claridad.
  • Monitoreo de desafíos legales: Se anticipan desarrollos legales activos tanto del equipo de litigio de IA como de los estados que podrían desafiar el decreto ejecutivo. Los debates legales clave se centrarán en la autoridad estatal bajo la Décima Enmienda y la legalidad de condicionar el financiamiento federal a las leyes de IA estatales.
  • Participación de las partes interesadas: Cualquier estándar federal de informes y divulgación para modelos de IA propuesto por la FCC pasará por un proceso de elaboración de normas formales, lo que permitirá a las partes interesadas influir en los detalles de la política.
  • Áreas de creciente regulación estatal: Algunos temas, como la protección de la seguridad infantil y la infraestructura de IA, seguirán gobernados por un mosaico de regulaciones estatales en evolución. Las empresas deben monitorear estas áreas de cerca para gestionar los riesgos de cumplimiento.

Este artículo se prepara para la información general de las personas interesadas y no debe considerarse como asesoría legal.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...