Nuevas Regulaciones de IA con la Ley de Gobernanza Responsable de Inteligencia Artificial de Texas
El rápido avance de la inteligencia artificial (IA) ha superado los marcos regulatorios existentes en los EE. UU. Actualmente, la regulación de la IA se lleva a cabo principalmente a nivel estatal. La mayoría de los estados que han promulgado leyes sobre IA se basan en regulaciones específicas para casos de uso o campos particulares. Texas ha establecido uno de los enfoques más completos con su Ley de Gobernanza Responsable de Inteligencia Artificial de Texas (TRAIGA).
TRAIGA fue firmada el 22 de junio de 2025 y entró en vigor el 1 de enero de 2026, con implicaciones que van más allá de las fronteras de Texas. Esta ley aborda el desarrollo y la implementación de sistemas de IA y prohíbe lo siguiente:
- Desarrollar o implementar un sistema de IA con la intención de manipular el comportamiento humano para incitar o fomentar el auto-daño, daño a otros o actividad criminal.
- Desarrollar o implementar un sistema de IA con la única intención de infringir, restringir o menoscabar los derechos garantizados bajo la Constitución.
- Desarrollar o implementar un sistema de IA con la intención de discriminar ilegalmente contra una clase protegida en violación de la ley estatal o federal.
- Desarrollar o implementar un sistema de IA con la única intención de producir o distribuir ciertos contenidos sexualmente explícitos.
El Código de Comercio de Texas define los sistemas de IA como «cualquier sistema basado en máquinas que, con un objetivo explícito o implícito, infiere de las entradas que recibe cómo generar salidas, incluyendo contenido, decisiones, predicciones o recomendaciones, que pueden influir en entornos físicos o virtuales». TRAIGA se aplica a cualquier persona o entidad que realice negocios en Texas o con residentes de Texas, ampliando así su alcance más allá de las fronteras del estado.
Enfoque y Cumplimiento
TRAIGA también crea un organismo asesor estatal en forma de un Consejo de IA para proporcionar supervisión y orientación. Además, establece un programa de «sandbox» regulatorio, en el cual las empresas pueden probar sistemas de IA en un entorno controlado durante 36 meses, mientras están protegidas de ciertos tipos de enjuiciamiento.
El Fiscal General de Texas tiene el derecho exclusivo de presentar acciones bajo TRAIGA, ya que esta ley no proporciona un derecho privado de acción. El Fiscal General debe proporcionar un aviso y una oportunidad de subsanar antes de presentar una acción, y las sanciones varían de $10,000 a $200,000 por violación, dependiendo en parte de si la violación se determina que es «subsanable», o de $2,000 a $40,000 por día para una violación continua.
Comparación con Otras Leyes Estatales
Colorado ha promulgado una legislación integral sobre IA a través de la Ley de IA de Colorado (CAIA). Este estatuto implementa un marco basado en riesgos, exigiendo a los desarrolladores y desplegadores realizar evaluaciones de impacto, gestionar riesgos y proporcionar notificaciones claras a los consumidores. Así, la CAIA incluye más obstáculos para el cumplimiento que TRAIGA. La Ley de Política de IA de Utah aborda principalmente la notificación al consumidor y las prácticas engañosas, resultando en un alcance más limitado que TRAIGA. California, por su parte, ha adoptado varias regulaciones específicas que abordan aplicaciones concretas de IA, como la supervisión de chatbots, medidas de integridad electoral y restricciones a los deepfakes. En comparación, Texas ha establecido leyes relacionadas con la IA que son más sencillas que las de California.
Pasos Prácticos
Cualquier entidad que realice negocios en Texas o con residentes de Texas debe evaluar cuidadosamente su exposición al riesgo y revisar sus políticas comerciales en consecuencia. En general, se aconseja a las organizaciones considerar los siguientes puntos:
- Mapear su exposición en Texas: identificar los sistemas de IA desarrollados, ofrecidos o implementados en Texas.
- Actualizar las políticas de IA para prohibir expresamente los usos de IA que puedan manipular el auto-daño, la violencia, el crimen, discriminar intencionalmente, violar derechos o producir contenido sexual infantil.
- Evaluar el sandbox de Texas: considerar si es apropiado probar las características de IA de próxima generación dentro del sandbox de Texas para mitigar el riesgo regulatorio.