Texas Implementa Ley Integral de IA: Requisitos de Divulgación y Consentimiento

Texas Promulga una Ley Integral sobre Inteligencia Artificial: Requisitos de Divulgación, Consentimiento y Cumplimiento A partir de 2026

El 22 de junio de 2025, el gobernador de Texas, Greg Abbott, firmó la House Bill 149, estableciendo la Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Esta ley crea uno de los marcos regulatorios más completos a nivel estatal en relación con la inteligencia artificial (IA) en los Estados Unidos. TRAIGA impone requisitos de divulgación, consentimiento y cumplimiento a desarrolladores, implementadores y entidades gubernamentales que utilizan sistemas de IA. La ley entrará en vigor el 1 de enero de 2026.

Definición de Sistema de Inteligencia Artificial

TRAIGA define un “sistema de inteligencia artificial” como cualquier sistema basado en máquinas que utiliza entradas para generar contenido, decisiones, predicciones o recomendaciones que pueden influir en entornos físicos o virtuales. El objetivo de la ley es fomentar el desarrollo y uso responsable de la IA, protegiendo a los individuos de riesgos predecibles a través de una supervisión estructurada, requisitos de divulgación y nuevos programas como un sandbox regulatorio.

Provisiones Clave de TRAIGA

  • Protección al Consumidor: La ley prohíbe el uso de modelos de IA que discriminen intencionadamente contra clases protegidas, infrinjan derechos constitucionales o inciten daño. Además, se prohíbe a las entidades gubernamentales utilizar IA para identificar individuos a través de datos biométricos sin consentimiento informado o para asignar puntuaciones sociales basadas en comportamientos o características personales.
  • Directrices de Divulgación: Cualquier entidad gubernamental o comercial que implemente un sistema de IA destinado a interactuar con consumidores debe proporcionar una divulgación clara y conspicua en lenguaje sencillo. Esta divulgación debe realizarse antes o al momento de la interacción y no puede utilizar diseños de interfaz engañosos conocidos como “patrones oscuros”.
  • Programa de Sandbox Regulador de IA: Sujeto a la aprobación del Departamento de Recursos de Información y cualquier agencia aplicable, una persona puede probar un programa de IA en un entorno controlado sin estar licenciada bajo las leyes de Texas. Durante este período de prueba, el fiscal general no podrá presentar ni perseguir cargos contra un participante del programa por una violación que ocurra durante este período.
  • Refugios Seguros: Las entidades que cumplan sustancialmente con marcos de gestión de riesgos reconocidos, como el NIST AI Risk Management Framework, o que detecten violaciones a través de auditorías internas o pruebas adversariales, pueden calificar para protección contra el cumplimiento.
  • Aplicación y Sanciones Civiles: El fiscal general de Texas tiene la autoridad exclusiva de aplicación. Las sanciones civiles oscilan entre $10,000 y $200,000 por violación, con sanciones diarias por incumplimiento continuo.

Implementación en la Práctica

Con la promulgación de TRAIGA, Texas se convierte en el segundo estado de EE. UU. en adoptar un marco regulatorio integral sobre IA, uniéndose a Colorado, que implementó su ley de IA en 2024. Mientras los estados continúan adoptando enfoques divergentes para la regulación de la IA, como el reciente veto del proyecto de ley de IA de Virginia por el gobernador, los participantes del mercado deben monitorear de cerca la evolución del mosaico de regulaciones a nivel estatal para evaluar las obligaciones de cumplimiento, ajustar las estrategias de gestión de riesgos y planear los impactos operativos a través de las jurisdicciones.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...