Ley de Gobernanza Responsable de IA en Texas: Implicaciones y Prohibiciones

La Ley de Gobernanza Responsable de IA de Texas

El 22 de junio de 2025, el Gobernador de Texas, Greg Abbott, firmó la Ley de Gobernanza Responsable de IA de Texas (TRAIGA), marcando el cierre de un proyecto de ley que recibió atención nacional y que experimentó cambios significativos a lo largo del proceso legislativo.

Inicialmente, en diciembre de 2024, TRAIGA proponía un esquema regulador amplio, inspirado en la Ley de IA de Colorado y la Ley de IA de la UE, centrado en sistemas de inteligencia artificial (IA) de «alto riesgo» y que imponía requisitos sustanciales y responsabilidad a los desarrolladores y aplicadores en el sector privado. Sin embargo, en marzo de 2025, los legisladores de Texas introdujeron una versión enmendada que redujo significativamente el alcance del proyecto de ley. Muchos de los requisitos más onerosos del borrador original —como el deber de proteger a los consumidores de daños previsibles, realizar evaluaciones de impacto y divulgar los detalles de los sistemas de IA de alto riesgo a los consumidores— fueron eliminados o limitados a entidades gubernamentales.

Provisiones Sustantivas de TRAIGA

A pesar de las modificaciones, la versión promulgada de TRAIGA incluye varias disposiciones que podrían impactar a las empresas que operan en Texas. En particular, la Ley impone restricciones categóricas sobre el desarrollo y la implementación de sistemas de IA para ciertos fines, incluyendo:

  1. Manipulación del Comportamiento Humano: No se pueden desarrollar o implementar sistemas de IA que animen intencionadamente a las personas a hacerse daño o a involucrarse en actividades delictivas.
  2. Protección Constitucional: No se pueden desarrollar sistemas de IA con la intención de infringir o restringir los derechos constitucionales de una persona.
  3. Discriminación Ilegal: Los sistemas de IA no pueden ser desarrollados con la intención de discriminar ilegalmente contra una clase protegida bajo la ley federal o estatal.
  4. Contenido Sexualmente Explícito: No se pueden desarrollar sistemas de IA con la intención de producir, ayudar en la producción, o distribuir pornografía infantil o videos o imágenes deepfake ilegales.

TRAIGA establece que estas prohibiciones deben ser «ampliamente interpretadas y aplicadas» para promover los objetivos subyacentes de la Ley, que incluyen facilitar el desarrollo responsable de la IA y proteger al público de los riesgos previsibles asociados con la IA.

Aplicación y Sanciones

La autoridad de aplicación de TRAIGA recae exclusivamente en el Fiscal General de Texas. La Ley requiere que el Fiscal General desarrolle un mecanismo de reporte en su sitio web para facilitar las quejas de los consumidores sobre posibles violaciones. Después de recibir una queja, el Fiscal General puede emitir una demanda de investigación civil a las partes sospechosas de violar TRAIGA.

Las sanciones por violaciones pueden variar:

  • Las violaciones consideradas curables están sujetas a multas de entre $10,000 y $12,000 por violación.
  • Las violaciones no curables pueden ser sancionadas con multas de entre $80,000 y $200,000.
  • Las violaciones continuas pueden resultar en multas de hasta $40,000 por día.

Programa de Sandbox Regulatorio

TRAIGA introduce un programa de sandbox regulatorio administrado por el Departamento de Recursos de Información (DIR), diseñado para apoyar las pruebas y el desarrollo de sistemas de IA bajo restricciones regulatorias relajadas. Los interesados deben presentar una solicitud que incluya una descripción detallada del sistema de IA a probar y un plan de mitigación en caso de consecuencias adversas durante la fase de prueba.

Consejos Prácticos para Desarrolladores y Aplicadores

Los desarrolladores y aplicadores de IA que operan en Texas tienen tiempo para asegurar el cumplimiento antes de que TRAIGA entre en vigor el 1 de enero de 2026. Se les aconseja evaluar si han desarrollado o planean desarrollar un sistema de IA que podría implicar uno de los usos prohibidos por TRAIGA. La Ley sugiere que una parte puede ser responsable solo si desarrolla intencionadamente un sistema de IA para participar en una práctica prohibida.

Además, TRAIGA alienta a los desarrolladores y aplicadores a ser proactivos en la identificación y cura de violaciones potenciales, limitando la responsabilidad para aquellos que descubren sus propias violaciones.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...