Texas Establece un Nuevo Modelo de Regulación de IA

Un Nuevo Modelo de Regulación de IA en Texas

El estado de Texas ha tomado una iniciativa significativa al promulgar la Texas Responsible Artificial Intelligence Governance Act (TRAIGA), convirtiéndose en el segundo estado en adoptar una ley integral de gobernanza de IA, después de Colorado. Esta ley, firmada por el gobernador Greg Abbott, establece un nuevo enfoque para la regulación de la IA, limitando la capacidad de Texas para sancionar a las empresas y ampliando los poderes de investigación del estado.

Un Nuevo Estándar para la Regulación de la IA

La TRAIGA se introdujo en un contexto donde la regulación de la IA está en constante evolución. A pesar de algunos intentos de reducir leyes más amplias sobre IA, como el llamado a posponer la implementación de la Colorado AI Act, se ha observado una proliferación de leyes específicas que regulan el uso de la IA en sectores como el salud, seguros y publicidad política.

TRAIGA se enfoca en los usos de la IA en lugar de en el poder de los modelos en sí. Limita la aplicación de la ley a un pequeño número de daños enumerados, proporciona defensas afirmativas para los infractores y establece un programa de Sandbox que permite a las empresas probar sistemas de IA sin tener que cumplir con todas las regulaciones.

Alcance de la Ley

A pesar de ser más estrecha que la propuesta original, la TRAIGA impone cargas regulatorias significativas sobre una amplia gama de entidades privadas:

  • Jurisdicción Amplia: La ley se aplica a cualquier persona o entidad que “promocione, publicite o realice negocios” en Texas.
  • Definición Expansiva de IA: La TRAIGA incluye “cualquier sistema basado en máquinas” que infiere de las entradas que recibe cómo generar salidas.
  • Inclusión de Desarrolladores y Desplegadores: Se aplica tanto a los desarrolladores como a los desplegadores de sistemas de IA.

Prohibiciones y Deberes Clave

TRAIGA establece prohibiciones específicas en el desarrollo y despliegue de sistemas de IA. Se prohíbe:

  • Desarrollar o desplegar sistemas de IA que inciten a la autolesión o al daño a otros.
  • Desarrollar sistemas cuya única intención sea infringir los derechos constitucionales de un individuo.
  • Discriminar ilegalmente contra una clase protegida.
  • Producción o distribución de sistemas de IA destinados a pornografía infantil o contenido sexualmente explícito sin consentimiento.

Además, se exige a las agencias gubernamentales que informen a los consumidores cuando interactúan con un sistema de IA y prohíbe el uso de sistemas de IA para asignar un puntaje social.

Investigación y Cumplimiento

El Fiscal General de Texas tiene la autoridad exclusiva para hacer cumplir la TRAIGA. La ley permite que los consumidores presenten quejas sobre sistemas de IA, y el Fiscal General puede emitir demandas de investigación civil basadas en una sola queja.

Los infractores tienen 60 días para corregir violaciones tras un aviso por escrito del Fiscal General, lo que dificulta la penalización de los infractores. Las sanciones pueden llegar hasta $12,000 por cada violación curable.

Programa de Sandbox Regulatorio

TRAIGA establece un Programa de Sandbox para fomentar el uso de la IA en áreas como la salud y la educación. Este programa ofrece un entorno de prueba donde las empresas pueden experimentar con sistemas de IA sin enfrentar acciones legales, aunque las prohibiciones de la ley aún se aplican.

Consejos para Prepararse

Los desarrolladores y desplegadores de IA deben cumplir con el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología (NIST) y documentar dicho cumplimiento. Es fundamental crear un registro de los propósitos de los sistemas de IA desarrollados y asegurar que la recopilación y uso de datos biométricos esté alineada con las disposiciones actualizadas de la ley.

More Insights

Sistema de Gestión de Riesgos en la Ley de IA de la UE

La Ley de Inteligencia Artificial (IA) de la Unión Europea establece un marco de regulación para los sistemas de IA de alto riesgo, destacando la importancia de un Sistema de Gestión de Riesgos. Este...

Riesgos Ocultos de los Agentes de IA en la Gobernanza

La gobernanza específica para la inteligencia artificial es necesaria para garantizar que las herramientas se implementen de manera responsable y generen valor sostenible. Las empresas deben ser...

Consideraciones Clave para Cumplir con la Ley de IA de la UE antes de Agosto de 2025

El Acta de Inteligencia Artificial de la Unión Europea establece un marco legal integral para el uso y desarrollo de la inteligencia artificial, vinculando los requisitos regulatorios al riesgo...

Gobernanza de la IA: Desafíos y Oportunidades

Estamos firmemente inmersos en la era de las máquinas inteligentes, donde la inteligencia artificial (IA) ha pasado de ser una simple herramienta a un disruptor estratégico. A medida que la IA se...

Texas Establece un Nuevo Modelo de Regulación de IA

El gobernador de Texas, Greg Abbott, firmó el mes pasado la Ley de Gobernanza de Inteligencia Artificial Responsable de Texas (TRAIGA), convirtiéndose en el segundo estado en adoptar una ley integral...

Falta de financiamiento para la regulación de IA en organismos públicos

No se han asignado fondos adicionales hasta ahora a los nueve organismos públicos que recibirán poderes adicionales para hacer cumplir la Ley de IA de la UE. Sin recursos adicionales, los organismos...