Texas Establece un Nuevo Modelo de Regulación de IA

Un Nuevo Modelo de Regulación de IA en Texas

El estado de Texas ha tomado una iniciativa significativa al promulgar la Texas Responsible Artificial Intelligence Governance Act (TRAIGA), convirtiéndose en el segundo estado en adoptar una ley integral de gobernanza de IA, después de Colorado. Esta ley, firmada por el gobernador Greg Abbott, establece un nuevo enfoque para la regulación de la IA, limitando la capacidad de Texas para sancionar a las empresas y ampliando los poderes de investigación del estado.

Un Nuevo Estándar para la Regulación de la IA

La TRAIGA se introdujo en un contexto donde la regulación de la IA está en constante evolución. A pesar de algunos intentos de reducir leyes más amplias sobre IA, como el llamado a posponer la implementación de la Colorado AI Act, se ha observado una proliferación de leyes específicas que regulan el uso de la IA en sectores como el salud, seguros y publicidad política.

TRAIGA se enfoca en los usos de la IA en lugar de en el poder de los modelos en sí. Limita la aplicación de la ley a un pequeño número de daños enumerados, proporciona defensas afirmativas para los infractores y establece un programa de Sandbox que permite a las empresas probar sistemas de IA sin tener que cumplir con todas las regulaciones.

Alcance de la Ley

A pesar de ser más estrecha que la propuesta original, la TRAIGA impone cargas regulatorias significativas sobre una amplia gama de entidades privadas:

  • Jurisdicción Amplia: La ley se aplica a cualquier persona o entidad que “promocione, publicite o realice negocios” en Texas.
  • Definición Expansiva de IA: La TRAIGA incluye “cualquier sistema basado en máquinas” que infiere de las entradas que recibe cómo generar salidas.
  • Inclusión de Desarrolladores y Desplegadores: Se aplica tanto a los desarrolladores como a los desplegadores de sistemas de IA.

Prohibiciones y Deberes Clave

TRAIGA establece prohibiciones específicas en el desarrollo y despliegue de sistemas de IA. Se prohíbe:

  • Desarrollar o desplegar sistemas de IA que inciten a la autolesión o al daño a otros.
  • Desarrollar sistemas cuya única intención sea infringir los derechos constitucionales de un individuo.
  • Discriminar ilegalmente contra una clase protegida.
  • Producción o distribución de sistemas de IA destinados a pornografía infantil o contenido sexualmente explícito sin consentimiento.

Además, se exige a las agencias gubernamentales que informen a los consumidores cuando interactúan con un sistema de IA y prohíbe el uso de sistemas de IA para asignar un puntaje social.

Investigación y Cumplimiento

El Fiscal General de Texas tiene la autoridad exclusiva para hacer cumplir la TRAIGA. La ley permite que los consumidores presenten quejas sobre sistemas de IA, y el Fiscal General puede emitir demandas de investigación civil basadas en una sola queja.

Los infractores tienen 60 días para corregir violaciones tras un aviso por escrito del Fiscal General, lo que dificulta la penalización de los infractores. Las sanciones pueden llegar hasta $12,000 por cada violación curable.

Programa de Sandbox Regulatorio

TRAIGA establece un Programa de Sandbox para fomentar el uso de la IA en áreas como la salud y la educación. Este programa ofrece un entorno de prueba donde las empresas pueden experimentar con sistemas de IA sin enfrentar acciones legales, aunque las prohibiciones de la ley aún se aplican.

Consejos para Prepararse

Los desarrolladores y desplegadores de IA deben cumplir con el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología (NIST) y documentar dicho cumplimiento. Es fundamental crear un registro de los propósitos de los sistemas de IA desarrollados y asegurar que la recopilación y uso de datos biométricos esté alineada con las disposiciones actualizadas de la ley.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...