Texas y la Nueva Ley de Gobernanza de IA Responsable

Texas Adopta la Ley de Gobernanza Responsable de la IA

El 22 de junio de 2025, el Gobernador Abbott firmó la HB 149, conocida como la “Ley de Gobernanza Responsable de la Inteligencia Artificial de Texas” (TRAIGA por sus siglas en inglés), convirtiéndose en el tercer estado de EE. UU., después de Colorado y Utah, en adoptar una ley integral sobre inteligencia artificial (IA). Esta legislación busca un equilibrio más favorable a la innovación, estableciendo un estándar más alto de “intención” para demostrar sesgos algorítmicos, incluyendo varios refugios legales y la prevalencia de regulaciones locales sobre la IA.

Una vez que la ley entre en vigor el 1 de enero de 2026, Texas:

  • Establecerá deberes básicos para los “desarrolladores” y “desplegadores” de IA,
  • Prohibirá la IA destinada a la puntuación social o la discriminación,
  • Creará un “sandbox” regulador de IA pionero en la nación,
  • Conferirá autoridad exclusiva de ejecución al Fiscal General (AG), y
  • Preemptará ampliamente las ordenanzas locales que regulan la IA.

La fecha de entrada en vigor de la ley otorga a las empresas aproximadamente 18 meses para establecer programas de cumplimiento. Las organizaciones que operan a nivel nacional o global son alentadas a armonizar estos esfuerzos con los requisitos de la Ley de IA de la UE y la Ley de IA de Colorado. También se les recomienda monitorear las negociaciones federales que vincularían la financiación federal al cumplimiento de los estados con una moratoria de diez años sobre regulaciones de IA, lo que podría alterar el panorama normativo.

Alcance amplio y definiciones familiares

La ley se aplica a cualquier persona que “promueva, publicite o realice negocios” en Texas, ofrezca productos o servicios a residentes de Texas, o “desarrolle o despliegue” un sistema de IA en el estado. Siguiendo la formulación de la Ley de IA de la UE, la ley define un “sistema de inteligencia artificial” como “cualquier sistema basado en máquina que, para cualquier objetivo explícito o implícito, infiere de las entradas que recibe cómo generar salidas … que pueden influir en entornos físicos o virtuales.” Esta definición es agnóstica respecto a la tecnología y el sector, asegurando la cobertura de modelos generativos, motores de recomendación, sistemas biométricos, entre otros.

Al igual que la Ley de IA de la UE y la Ley de IA de Colorado, la Ley de Texas asigna responsabilidades por rol:

  • Desarrollador: Cualquier persona que crea un sistema de IA ofrecido, vendido, alquilado o proporcionado de cualquier otra manera en Texas.
  • Desplegador: Cualquier persona que pone un sistema de IA en servicio o uso en el estado.

Deberes básicos y prohibiciones

1. Transparencia hacia los consumidores: Las entidades gubernamentales deben informar a los individuos que están interactuando con un sistema de IA antes o en el momento de la interacción. La notificación debe ser clara, conspicua y en lenguaje sencillo; se permiten hipervínculos.

2. Manipulación del comportamiento humano: Los desarrolladores y desplegadores no pueden utilizar intencionalmente la IA para incitar al auto-daño, violencia o actividad criminal.

3. Prohibición de la puntuación social: En consonancia con el Artículo 5 de la Ley de IA de la UE, Texas prohíbe a las entidades gubernamentales usar o desplegar sistemas de IA que categoricen a individuos para asignar una “puntuación social” que podría conducir a un tratamiento perjudicial no relacionado o desproporcionado al contexto o gravedad de los comportamientos observados, o que violen los derechos constitucionales de EE. UU. o de Texas.

4. Guardias de datos biométricos: Sin el consentimiento de un individuo, una entidad gubernamental no puede usar IA para identificar de manera única a una persona mediante datos biométricos obtenidos de fuentes públicas si hacerlo violaría derechos bajo la Constitución de EE. UU. o de Texas, o leyes estatales o federales.

5. Derechos constitucionales y discriminación ilegal: No se pueden desarrollar o desplegar sistemas de IA “con la única intención” de infringir, restringir o menoscabar los derechos de un individuo bajo la Constitución de EE. UU. o con la intención de “discriminar ilegalmente contra una clase protegida en violación de leyes estatales o federales.” Un mero impacto dispar es insuficiente para establecer una intención de discriminar contra una clase protegida.

6. Contenido sexualmente explícito que involucra a menores: No se pueden desarrollar o desplegar sistemas de IA “con la única intención de producir, asistir o ayudar en la producción, o distribuir” material de abuso sexual infantil generado por IA y contenido sexual “deepfake” que represente a menores.

La ley establece un alto umbral de responsabilidad con respecto a dos de las prohibiciones clave mencionadas. Específicamente, para violar las prohibiciones de la ley sobre el uso de IA para infringir derechos individuales bajo la Constitución o para discriminar ilegalmente contra una clase protegida bajo leyes estatales o federales, un desarrollador o desplegador debe haber actuado con intención. Este requisito de intención para establecer responsabilidad por violaciones que involucran protecciones constitucionales o anti-discriminación hace que la Ley de Texas sea única entre otras leyes estatales específicas de IA.

Sandbox regulador de IA

La ley crea un sandbox de 36 meses administrado por el Departamento de Recursos de Información (DIR) en consulta con el nuevo Consejo de Inteligencia Artificial de Texas. Los participantes aprobados pueden probar aplicaciones innovadoras de IA sin obtener las licencias o permisos estatales que de otro modo se requerirían, sujeto a:

  • Una solicitud que describa el sistema, beneficios, riesgos y medidas de mitigación,
  • Informes trimestrales de métricas de rendimiento y retroalimentación del consumidor, y
  • El poder del DIR de terminar la participación si los riesgos se vuelven excesivos, si la IA viola alguna ley o regulación federal, o si la IA viola alguna ley o regulación estatal que no esté exenta bajo el programa.

Crucialmente, el AG de Texas no puede “presentar o perseguir cargos contra un participante del programa por violación de una ley o regulación exenta bajo este capítulo que ocurra durante el período de prueba.”

Ejecutoria y preeminencia

  • Autoridad exclusiva: El AG de Texas tiene la autoridad exclusiva para hacer cumplir esta ley. El AG debe crear y mantener un mecanismo en línea para presentar quejas para revisión.
  • Notificación y cura: Si el AG determina que una persona ha violado la ley, debe proporcionar una notificación para sanar y no puede demandar hasta que hayan pasado 60 días sin una cura.
  • Multas civiles: Las sanciones incluyen multas de hasta $200,000 por violación incurable, más hasta $40,000 por día por violaciones continuas, con niveles menores para infracciones curables o declaraciones que resulten inexactas.
  • Preeminencia estatal: La ley anula expresamente cualquier ordenanza de ciudad o condado que regule la IA, con el objetivo de prevenir un mosaico local.
  • Sin derecho de acción privada: La ley no crea un derecho de acción privada, alineándose nuevamente con Colorado y divergendo de algunos estatutos de privacidad estatal.

Refugios legales

La ley establece varios refugios legales para organizaciones contra las que el AG ha buscado una sanción civil o una orden de restricción. Por ejemplo, un demandado no puede ser considerado responsable si “descubre una violación … a través de pruebas, incluyendo pruebas adversariales o pruebas de equipo rojo” o si “cumple sustancialmente con la versión más reciente del ‘Marco de Gestión de Riesgos de Inteligencia Artificial: Perfil de Inteligencia Artificial Generativa’ publicado por el Instituto Nacional de Estándares y Tecnología o con otro marco de gestión de riesgos reconocido a nivel nacional o internacional para sistemas de IA, un proceso de revisión interna.”

¿Cómo se compara Texas?

Aspectos Texas Colorado Ley de IA de la UE
Fecha de entrada en vigor 1 de enero de 2026 1 de febrero de 2026 2 de febrero de 2025 para primeras obligaciones; implementación escalonada
Marco de riesgo Deberes/prohibiciones vinculados a prácticas específicas; sin formalización de niveles Marco diseñado para IA “de alto riesgo” Prohibido, Alto, Limitado y Mínimo
Actores cubiertos Desarrolladores y desplegadores Desarrolladores y desplegadores Proveedores, desplegadores, importadores y distribuidores
Transparencia Notificación de interacción con IA obligatoria para entidades gubernamentales Notificación al consumidor para decisiones de alto riesgo Divulgación obligatoria para la mayoría de las interacciones con IA
Estándar de discriminación Requiere “intención de discriminar” “Discriminación algorítmica” (enfoque basado en impacto) Evaluación de impacto sobre derechos fundamentales para sistemas de IA de alto riesgo
Sandbox Sí – 36 meses, amplio No Los Estados miembros deben establecer al menos un sandbox regulador de IA a nivel nacional antes del 2 de agosto de 2026
Multas Ejecutoria del AG; hasta USD 200,000 Ejecutoria del AG; multas a determinar por regla Multas escalonadas según tipo de violación; hasta EUR 35 millones o 7% de la facturación anual global

La inminente moratoria federal

El 22 de mayo de 2025, el proyecto de ley de reconciliación del presupuesto de la Cámara de EE. UU. avanzó con una moratoria de diez años que prohibiría a los estados y localidades hacer cumplir leyes específicas sobre IA.

Un borrador emergente del Senado, publicado el 5 de junio de 2025 por el Comité del Senado de Comercio, Ciencia y Transporte, condicionaría la recepción de futuros fondos de Banda Ancha, Equidad, Acceso y Despliegue (BEAD) a la aceptación de un estado de no regular modelos de IA o sistemas de decisión automatizados. Si el Congreso adopta este enfoque de vinculación de financiación, Texas enfrentará una bifurcación de políticas inmediata: (i) suspender la ejecución de la ley o (ii) proceder con la ley y renunciar a los fondos federales para banda ancha e infraestructura.

Aunque la versión del Senado es más restringida que la moratoria general de la Cámara, aún congelaría funcionalmente los mecanismos de ejecución de la ley.

El 20 de junio de 2025, la disposición pasó un obstáculo importante cuando el Comité del Senado de Presupuesto determinó que la disposición no violaba la Regla Byrd del Senado.

Próximos pasos

Aunque persiste la incertidumbre sobre el impacto de las leyes estatales en el contexto de una posible moratoria federal, las empresas pueden tomar medidas para prepararse para la ejecución y madurar su estrategia de gobernanza de IA, incluyendo:

  1. Inventariar y estratificar los casos de uso de IA por nivel de riesgo,
  2. Documentar la cesación de prácticas “prohibidas” bajo la ley (y leyes similares en otras jurisdicciones),
  3. Establecer protocolos de prueba y documentación de plantillas, incluyendo para pruebas adversariales y equipos rojos, y
  4. Alinear la gobernanza de IA a nivel empresarial con el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología y otros estándares de gestión de riesgos de la industria, como la ISO 42001.

More Insights

Gillian K. Hadfield: Nueva Líder en Gobernanza de IA

Gillian K. Hadfield ha sido nombrada Profesora Distinguida Bloomberg de Alineación y Gobernanza de la IA en la Universidad Johns Hopkins. Su investigación se centra en asegurar que los sistemas de...

Gobernanza Ética e Inclusiva de la IA en Indonesia

El Ministerio de Comunicación y Digital de Indonesia ha reafirmado su compromiso de incorporar principios éticos e inclusivos en sus políticas de inteligencia artificial (IA). El Vice Ministro Nezar...

Texas y la Nueva Ley de Gobernanza de IA Responsable

El 22 de junio de 2025, el gobernador Abbott firmó la Ley de Gobernanza de Inteligencia Artificial Responsable de Texas, convirtiendo a Texas en el tercer estado de EE. UU. en adoptar una ley integral...

La IA como Ventaja Competitiva en Cumplimiento Normativo

La inteligencia artificial está ayudando a las empresas a cumplir con una compleja gama de regulaciones en constante evolución, brindándoles una ventaja competitiva. Las herramientas basadas en IA...

Lecciones de automovilismo sobre IA agentiva y gobernanza

Un agente de IA es similar a un piloto de carreras, ya que tiene autonomía y debe tomar decisiones basadas en sus objetivos y entorno. La gobernanza de IA es esencial para gestionar el ciclo de vida...

Esfuerzos de Gobernanza de IA en Pro de los Derechos Humanos

Los avances rápidos en la inteligencia artificial están obligando a los líderes globales a enfrentar preguntas incómodas sobre el poder, la responsabilidad y la protección de las libertades...

AI Responsable: Comparativa de Proveedores de LLM en Ética y Seguridad

La publicación analiza la importancia de la inteligencia artificial responsable y cómo se pueden evaluar los modelos de lenguaje a gran escala (LLMs) en términos de ética y seguridad. Se destacan...