Los Estados Toman la Delantera en la Regulación del Desarrollo de IA en América
El 4 de julio de 2025, el presidente Trump firmó la “One Big Beautiful Bill” en la que el Senado eliminó inesperadamente una prohibición de 10 años sobre la capacidad de los estados para promulgar o hacer cumplir sus propias leyes de inteligencia artificial (IA).
La eliminación de la moratoria sobre la regulación de la IA ha permitido que los estados establezcan sus propias reglas, lo que ha acelerado un movimiento en todo el país. Sin embargo, la gran cantidad de leyes y potenciales leyes hace que sea difícil para las empresas mantenerse al día, presentando desafíos relacionados con la fragmentación, duplicación y gobernanza.
Impacto de la Fragmentación Legal
“Se está formando rápidamente un mapa regulatorio fragmentado de IA en los EE.UU.”, afirmó un experto del sector. Estados como California, Colorado, Texas y Utah ya están avanzando en este ámbito.
La legislación sobre IA de los estados aborda una amplia gama de cuestiones, desde aplicaciones de IA de alto riesgo hasta réplicas digitales, deepfakes y el uso de IA en el sector público.
Leyes Destacadas por Estado
La Ley de IA de Colorado se centra en los sistemas de “alto riesgo” para prevenir la discriminación algorítmica en diferentes sectores, con sanciones de hasta $20,000 por violación. Mientras tanto, California avanza con múltiples leyes de IA que se centran en la transparencia de datos, evaluaciones de impacto y la seguridad de la IA, especialmente en aplicaciones orientadas al consumidor.
Texas se está enfocando en el contenido generado por IA y los estándares de seguridad en los servicios públicos, como la HB149, conocida como la Ley de Gobernanza Responsable de IA de Texas. La SB 149 de Utah, la Ley de Política de Inteligencia Artificial, exige a las empresas divulgar el uso de IA cuando interactúan con los consumidores.
Regulaciones Adicionales
La Ley ELVIS de Tennessee, aprobada en 2024, impone límites estrictos sobre el uso de IA para replicar la voz o imagen de una persona sin su consentimiento, apuntando a reproducciones digitales no autorizadas.
Nueva York se espera que lidere en la regulación del sector financiero y presione por divulgaciones de riesgo obligatorias de los grandes desarrolladores de IA. Además, el estado aprobó la Ley de Seguridad y Educación de IA Responsable, que requiere que los grandes desarrolladores de IA prevengan daños generalizados.
Implicaciones para las Empresas
¿Qué significa este mosaico de legislación para las empresas? El impacto dependerá del tamaño y los niveles de madurez de la IA.
- Pequeñas empresas: Necesitarán comenzar a considerar la conformidad antes de usar herramientas de IA en roles orientados al cliente.
- Empresas medianas: Tendrán que considerar estrategias legales y de gobernanza de datos estado por estado.
- Grandes empresas: Se verán obligadas a integrar la conformidad en su arquitectura y diseñar implementaciones modulares de IA que puedan alternar características según las leyes locales.
“En resumen, si estás construyendo o desplegando IA en EE.UU., necesitas un plan de conformidad flexible y consciente de los estados —ahora”, advirtieron los expertos.
A pesar de los desafíos, las regulaciones no necesariamente se traducen en una pérdida de innovación. Más bien, pueden aprovecharse para construir una IA más segura y mejor. Las empresas pueden alinearse con la conformidad manteniendo un inventario de todos los componentes involucrados en el desarrollo, entrenamiento y despliegue de sistemas de IA.
“Si EE.UU. quiere mantenerse a la vanguardia en la carrera global de IA, no se trata solo de construir herramientas inteligentes”, concluyó un experto. “Se trata de demostrar que podemos gobernar la IA de manera responsable sin frenar la innovación y crear confianza en la IA sin aplastar a las startups o abrumar a las empresas más pequeñas.”