Regulaciones de IA en Texas: Implicaciones y Requisitos Clave

Nuevas Regulaciones de IA con la Ley de Gobernanza Responsable de Inteligencia Artificial de Texas

El rápido avance de la inteligencia artificial (IA) ha superado los marcos regulatorios existentes en los EE. UU. Actualmente, la regulación de la IA se lleva a cabo principalmente a nivel estatal. La mayoría de los estados que han promulgado leyes sobre IA se basan en regulaciones específicas para casos de uso o campos particulares. Texas ha establecido uno de los enfoques más completos con su Ley de Gobernanza Responsable de Inteligencia Artificial de Texas (TRAIGA).

TRAIGA fue firmada el 22 de junio de 2025 y entró en vigor el 1 de enero de 2026, con implicaciones que van más allá de las fronteras de Texas. Esta ley aborda el desarrollo y la implementación de sistemas de IA y prohíbe lo siguiente:

  • Desarrollar o implementar un sistema de IA con la intención de manipular el comportamiento humano para incitar o fomentar el auto-daño, daño a otros o actividad criminal.
  • Desarrollar o implementar un sistema de IA con la única intención de infringir, restringir o menoscabar los derechos garantizados bajo la Constitución.
  • Desarrollar o implementar un sistema de IA con la intención de discriminar ilegalmente contra una clase protegida en violación de la ley estatal o federal.
  • Desarrollar o implementar un sistema de IA con la única intención de producir o distribuir ciertos contenidos sexualmente explícitos.

El Código de Comercio de Texas define los sistemas de IA como «cualquier sistema basado en máquinas que, con un objetivo explícito o implícito, infiere de las entradas que recibe cómo generar salidas, incluyendo contenido, decisiones, predicciones o recomendaciones, que pueden influir en entornos físicos o virtuales». TRAIGA se aplica a cualquier persona o entidad que realice negocios en Texas o con residentes de Texas, ampliando así su alcance más allá de las fronteras del estado.

Enfoque y Cumplimiento

TRAIGA también crea un organismo asesor estatal en forma de un Consejo de IA para proporcionar supervisión y orientación. Además, establece un programa de «sandbox» regulatorio, en el cual las empresas pueden probar sistemas de IA en un entorno controlado durante 36 meses, mientras están protegidas de ciertos tipos de enjuiciamiento.

El Fiscal General de Texas tiene el derecho exclusivo de presentar acciones bajo TRAIGA, ya que esta ley no proporciona un derecho privado de acción. El Fiscal General debe proporcionar un aviso y una oportunidad de subsanar antes de presentar una acción, y las sanciones varían de $10,000 a $200,000 por violación, dependiendo en parte de si la violación se determina que es «subsanable», o de $2,000 a $40,000 por día para una violación continua.

Comparación con Otras Leyes Estatales

Colorado ha promulgado una legislación integral sobre IA a través de la Ley de IA de Colorado (CAIA). Este estatuto implementa un marco basado en riesgos, exigiendo a los desarrolladores y desplegadores realizar evaluaciones de impacto, gestionar riesgos y proporcionar notificaciones claras a los consumidores. Así, la CAIA incluye más obstáculos para el cumplimiento que TRAIGA. La Ley de Política de IA de Utah aborda principalmente la notificación al consumidor y las prácticas engañosas, resultando en un alcance más limitado que TRAIGA. California, por su parte, ha adoptado varias regulaciones específicas que abordan aplicaciones concretas de IA, como la supervisión de chatbots, medidas de integridad electoral y restricciones a los deepfakes. En comparación, Texas ha establecido leyes relacionadas con la IA que son más sencillas que las de California.

Pasos Prácticos

Cualquier entidad que realice negocios en Texas o con residentes de Texas debe evaluar cuidadosamente su exposición al riesgo y revisar sus políticas comerciales en consecuencia. En general, se aconseja a las organizaciones considerar los siguientes puntos:

  1. Mapear su exposición en Texas: identificar los sistemas de IA desarrollados, ofrecidos o implementados en Texas.
  2. Actualizar las políticas de IA para prohibir expresamente los usos de IA que puedan manipular el auto-daño, la violencia, el crimen, discriminar intencionalmente, violar derechos o producir contenido sexual infantil.
  3. Evaluar el sandbox de Texas: considerar si es apropiado probar las características de IA de próxima generación dentro del sandbox de Texas para mitigar el riesgo regulatorio.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...