Texas Establece un Nuevo Modelo de Regulación de IA

Un Nuevo Modelo de Regulación de IA en Texas

El estado de Texas ha tomado una iniciativa significativa al promulgar la Texas Responsible Artificial Intelligence Governance Act (TRAIGA), convirtiéndose en el segundo estado en adoptar una ley integral de gobernanza de IA, después de Colorado. Esta ley, firmada por el gobernador Greg Abbott, establece un nuevo enfoque para la regulación de la IA, limitando la capacidad de Texas para sancionar a las empresas y ampliando los poderes de investigación del estado.

Un Nuevo Estándar para la Regulación de la IA

La TRAIGA se introdujo en un contexto donde la regulación de la IA está en constante evolución. A pesar de algunos intentos de reducir leyes más amplias sobre IA, como el llamado a posponer la implementación de la Colorado AI Act, se ha observado una proliferación de leyes específicas que regulan el uso de la IA en sectores como el salud, seguros y publicidad política.

TRAIGA se enfoca en los usos de la IA en lugar de en el poder de los modelos en sí. Limita la aplicación de la ley a un pequeño número de daños enumerados, proporciona defensas afirmativas para los infractores y establece un programa de Sandbox que permite a las empresas probar sistemas de IA sin tener que cumplir con todas las regulaciones.

Alcance de la Ley

A pesar de ser más estrecha que la propuesta original, la TRAIGA impone cargas regulatorias significativas sobre una amplia gama de entidades privadas:

  • Jurisdicción Amplia: La ley se aplica a cualquier persona o entidad que “promocione, publicite o realice negocios” en Texas.
  • Definición Expansiva de IA: La TRAIGA incluye “cualquier sistema basado en máquinas” que infiere de las entradas que recibe cómo generar salidas.
  • Inclusión de Desarrolladores y Desplegadores: Se aplica tanto a los desarrolladores como a los desplegadores de sistemas de IA.

Prohibiciones y Deberes Clave

TRAIGA establece prohibiciones específicas en el desarrollo y despliegue de sistemas de IA. Se prohíbe:

  • Desarrollar o desplegar sistemas de IA que inciten a la autolesión o al daño a otros.
  • Desarrollar sistemas cuya única intención sea infringir los derechos constitucionales de un individuo.
  • Discriminar ilegalmente contra una clase protegida.
  • Producción o distribución de sistemas de IA destinados a pornografía infantil o contenido sexualmente explícito sin consentimiento.

Además, se exige a las agencias gubernamentales que informen a los consumidores cuando interactúan con un sistema de IA y prohíbe el uso de sistemas de IA para asignar un puntaje social.

Investigación y Cumplimiento

El Fiscal General de Texas tiene la autoridad exclusiva para hacer cumplir la TRAIGA. La ley permite que los consumidores presenten quejas sobre sistemas de IA, y el Fiscal General puede emitir demandas de investigación civil basadas en una sola queja.

Los infractores tienen 60 días para corregir violaciones tras un aviso por escrito del Fiscal General, lo que dificulta la penalización de los infractores. Las sanciones pueden llegar hasta $12,000 por cada violación curable.

Programa de Sandbox Regulatorio

TRAIGA establece un Programa de Sandbox para fomentar el uso de la IA en áreas como la salud y la educación. Este programa ofrece un entorno de prueba donde las empresas pueden experimentar con sistemas de IA sin enfrentar acciones legales, aunque las prohibiciones de la ley aún se aplican.

Consejos para Prepararse

Los desarrolladores y desplegadores de IA deben cumplir con el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología (NIST) y documentar dicho cumplimiento. Es fundamental crear un registro de los propósitos de los sistemas de IA desarrollados y asegurar que la recopilación y uso de datos biométricos esté alineada con las disposiciones actualizadas de la ley.

More Insights

Guía Práctica de IA Responsable para Desarrolladores .NET

La era de la Inteligencia Artificial (IA) está sucediendo ahora, y aunque ofrece velocidad y precisión en sectores como la banca y la salud, plantea desafíos éticos sobre su confianza. Para abordar...

Ley de Transparencia en IA: Un Hito en California

Los legisladores de California han hecho historia al aprobar una ley pionera sobre la transparencia en inteligencia artificial que se centra en los "modelos fronterizos", los sistemas de inteligencia...

Desafíos legales del uso de IA en el proceso de contratación

El uso de herramientas de IA en el proceso de solicitud permite a las empresas optimizar sus procesos, pero los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no...

Los Cuatro Pilares de los Guardrails en GenAI: Construyendo Sistemas de IA Responsables

A medida que la inteligencia artificial generativa transforma cómo operan las empresas, es fundamental implementar sistemas de guardrails para asegurar un despliegue responsable. Estos guardrails, que...

IA Responsable para Mercados Emergentes: Inclusión desde el Diseño

La inteligencia artificial está transformando el mundo, pero los beneficios no llegan a todos de manera equitativa. Es fundamental diseñar sistemas de IA inclusivos que aborden las barreras de...