Texas y la Nueva Ley de Gobernanza de IA Responsable

Texas Adopta la Ley de Gobernanza Responsable de la IA

El 22 de junio de 2025, el Gobernador Abbott firmó la HB 149, conocida como la “Ley de Gobernanza Responsable de la Inteligencia Artificial de Texas” (TRAIGA por sus siglas en inglés), convirtiéndose en el tercer estado de EE. UU., después de Colorado y Utah, en adoptar una ley integral sobre inteligencia artificial (IA). Esta legislación busca un equilibrio más favorable a la innovación, estableciendo un estándar más alto de “intención” para demostrar sesgos algorítmicos, incluyendo varios refugios legales y la prevalencia de regulaciones locales sobre la IA.

Una vez que la ley entre en vigor el 1 de enero de 2026, Texas:

  • Establecerá deberes básicos para los “desarrolladores” y “desplegadores” de IA,
  • Prohibirá la IA destinada a la puntuación social o la discriminación,
  • Creará un “sandbox” regulador de IA pionero en la nación,
  • Conferirá autoridad exclusiva de ejecución al Fiscal General (AG), y
  • Preemptará ampliamente las ordenanzas locales que regulan la IA.

La fecha de entrada en vigor de la ley otorga a las empresas aproximadamente 18 meses para establecer programas de cumplimiento. Las organizaciones que operan a nivel nacional o global son alentadas a armonizar estos esfuerzos con los requisitos de la Ley de IA de la UE y la Ley de IA de Colorado. También se les recomienda monitorear las negociaciones federales que vincularían la financiación federal al cumplimiento de los estados con una moratoria de diez años sobre regulaciones de IA, lo que podría alterar el panorama normativo.

Alcance amplio y definiciones familiares

La ley se aplica a cualquier persona que “promueva, publicite o realice negocios” en Texas, ofrezca productos o servicios a residentes de Texas, o “desarrolle o despliegue” un sistema de IA en el estado. Siguiendo la formulación de la Ley de IA de la UE, la ley define un “sistema de inteligencia artificial” como “cualquier sistema basado en máquina que, para cualquier objetivo explícito o implícito, infiere de las entradas que recibe cómo generar salidas … que pueden influir en entornos físicos o virtuales.” Esta definición es agnóstica respecto a la tecnología y el sector, asegurando la cobertura de modelos generativos, motores de recomendación, sistemas biométricos, entre otros.

Al igual que la Ley de IA de la UE y la Ley de IA de Colorado, la Ley de Texas asigna responsabilidades por rol:

  • Desarrollador: Cualquier persona que crea un sistema de IA ofrecido, vendido, alquilado o proporcionado de cualquier otra manera en Texas.
  • Desplegador: Cualquier persona que pone un sistema de IA en servicio o uso en el estado.

Deberes básicos y prohibiciones

1. Transparencia hacia los consumidores: Las entidades gubernamentales deben informar a los individuos que están interactuando con un sistema de IA antes o en el momento de la interacción. La notificación debe ser clara, conspicua y en lenguaje sencillo; se permiten hipervínculos.

2. Manipulación del comportamiento humano: Los desarrolladores y desplegadores no pueden utilizar intencionalmente la IA para incitar al auto-daño, violencia o actividad criminal.

3. Prohibición de la puntuación social: En consonancia con el Artículo 5 de la Ley de IA de la UE, Texas prohíbe a las entidades gubernamentales usar o desplegar sistemas de IA que categoricen a individuos para asignar una “puntuación social” que podría conducir a un tratamiento perjudicial no relacionado o desproporcionado al contexto o gravedad de los comportamientos observados, o que violen los derechos constitucionales de EE. UU. o de Texas.

4. Guardias de datos biométricos: Sin el consentimiento de un individuo, una entidad gubernamental no puede usar IA para identificar de manera única a una persona mediante datos biométricos obtenidos de fuentes públicas si hacerlo violaría derechos bajo la Constitución de EE. UU. o de Texas, o leyes estatales o federales.

5. Derechos constitucionales y discriminación ilegal: No se pueden desarrollar o desplegar sistemas de IA “con la única intención” de infringir, restringir o menoscabar los derechos de un individuo bajo la Constitución de EE. UU. o con la intención de “discriminar ilegalmente contra una clase protegida en violación de leyes estatales o federales.” Un mero impacto dispar es insuficiente para establecer una intención de discriminar contra una clase protegida.

6. Contenido sexualmente explícito que involucra a menores: No se pueden desarrollar o desplegar sistemas de IA “con la única intención de producir, asistir o ayudar en la producción, o distribuir” material de abuso sexual infantil generado por IA y contenido sexual “deepfake” que represente a menores.

La ley establece un alto umbral de responsabilidad con respecto a dos de las prohibiciones clave mencionadas. Específicamente, para violar las prohibiciones de la ley sobre el uso de IA para infringir derechos individuales bajo la Constitución o para discriminar ilegalmente contra una clase protegida bajo leyes estatales o federales, un desarrollador o desplegador debe haber actuado con intención. Este requisito de intención para establecer responsabilidad por violaciones que involucran protecciones constitucionales o anti-discriminación hace que la Ley de Texas sea única entre otras leyes estatales específicas de IA.

Sandbox regulador de IA

La ley crea un sandbox de 36 meses administrado por el Departamento de Recursos de Información (DIR) en consulta con el nuevo Consejo de Inteligencia Artificial de Texas. Los participantes aprobados pueden probar aplicaciones innovadoras de IA sin obtener las licencias o permisos estatales que de otro modo se requerirían, sujeto a:

  • Una solicitud que describa el sistema, beneficios, riesgos y medidas de mitigación,
  • Informes trimestrales de métricas de rendimiento y retroalimentación del consumidor, y
  • El poder del DIR de terminar la participación si los riesgos se vuelven excesivos, si la IA viola alguna ley o regulación federal, o si la IA viola alguna ley o regulación estatal que no esté exenta bajo el programa.

Crucialmente, el AG de Texas no puede “presentar o perseguir cargos contra un participante del programa por violación de una ley o regulación exenta bajo este capítulo que ocurra durante el período de prueba.”

Ejecutoria y preeminencia

  • Autoridad exclusiva: El AG de Texas tiene la autoridad exclusiva para hacer cumplir esta ley. El AG debe crear y mantener un mecanismo en línea para presentar quejas para revisión.
  • Notificación y cura: Si el AG determina que una persona ha violado la ley, debe proporcionar una notificación para sanar y no puede demandar hasta que hayan pasado 60 días sin una cura.
  • Multas civiles: Las sanciones incluyen multas de hasta $200,000 por violación incurable, más hasta $40,000 por día por violaciones continuas, con niveles menores para infracciones curables o declaraciones que resulten inexactas.
  • Preeminencia estatal: La ley anula expresamente cualquier ordenanza de ciudad o condado que regule la IA, con el objetivo de prevenir un mosaico local.
  • Sin derecho de acción privada: La ley no crea un derecho de acción privada, alineándose nuevamente con Colorado y divergendo de algunos estatutos de privacidad estatal.

Refugios legales

La ley establece varios refugios legales para organizaciones contra las que el AG ha buscado una sanción civil o una orden de restricción. Por ejemplo, un demandado no puede ser considerado responsable si “descubre una violación … a través de pruebas, incluyendo pruebas adversariales o pruebas de equipo rojo” o si “cumple sustancialmente con la versión más reciente del ‘Marco de Gestión de Riesgos de Inteligencia Artificial: Perfil de Inteligencia Artificial Generativa’ publicado por el Instituto Nacional de Estándares y Tecnología o con otro marco de gestión de riesgos reconocido a nivel nacional o internacional para sistemas de IA, un proceso de revisión interna.”

¿Cómo se compara Texas?

Aspectos Texas Colorado Ley de IA de la UE
Fecha de entrada en vigor 1 de enero de 2026 1 de febrero de 2026 2 de febrero de 2025 para primeras obligaciones; implementación escalonada
Marco de riesgo Deberes/prohibiciones vinculados a prácticas específicas; sin formalización de niveles Marco diseñado para IA “de alto riesgo” Prohibido, Alto, Limitado y Mínimo
Actores cubiertos Desarrolladores y desplegadores Desarrolladores y desplegadores Proveedores, desplegadores, importadores y distribuidores
Transparencia Notificación de interacción con IA obligatoria para entidades gubernamentales Notificación al consumidor para decisiones de alto riesgo Divulgación obligatoria para la mayoría de las interacciones con IA
Estándar de discriminación Requiere “intención de discriminar” “Discriminación algorítmica” (enfoque basado en impacto) Evaluación de impacto sobre derechos fundamentales para sistemas de IA de alto riesgo
Sandbox Sí – 36 meses, amplio No Los Estados miembros deben establecer al menos un sandbox regulador de IA a nivel nacional antes del 2 de agosto de 2026
Multas Ejecutoria del AG; hasta USD 200,000 Ejecutoria del AG; multas a determinar por regla Multas escalonadas según tipo de violación; hasta EUR 35 millones o 7% de la facturación anual global

La inminente moratoria federal

El 22 de mayo de 2025, el proyecto de ley de reconciliación del presupuesto de la Cámara de EE. UU. avanzó con una moratoria de diez años que prohibiría a los estados y localidades hacer cumplir leyes específicas sobre IA.

Un borrador emergente del Senado, publicado el 5 de junio de 2025 por el Comité del Senado de Comercio, Ciencia y Transporte, condicionaría la recepción de futuros fondos de Banda Ancha, Equidad, Acceso y Despliegue (BEAD) a la aceptación de un estado de no regular modelos de IA o sistemas de decisión automatizados. Si el Congreso adopta este enfoque de vinculación de financiación, Texas enfrentará una bifurcación de políticas inmediata: (i) suspender la ejecución de la ley o (ii) proceder con la ley y renunciar a los fondos federales para banda ancha e infraestructura.

Aunque la versión del Senado es más restringida que la moratoria general de la Cámara, aún congelaría funcionalmente los mecanismos de ejecución de la ley.

El 20 de junio de 2025, la disposición pasó un obstáculo importante cuando el Comité del Senado de Presupuesto determinó que la disposición no violaba la Regla Byrd del Senado.

Próximos pasos

Aunque persiste la incertidumbre sobre el impacto de las leyes estatales en el contexto de una posible moratoria federal, las empresas pueden tomar medidas para prepararse para la ejecución y madurar su estrategia de gobernanza de IA, incluyendo:

  1. Inventariar y estratificar los casos de uso de IA por nivel de riesgo,
  2. Documentar la cesación de prácticas “prohibidas” bajo la ley (y leyes similares en otras jurisdicciones),
  3. Establecer protocolos de prueba y documentación de plantillas, incluyendo para pruebas adversariales y equipos rojos, y
  4. Alinear la gobernanza de IA a nivel empresarial con el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología y otros estándares de gestión de riesgos de la industria, como la ISO 42001.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...