Ley de Gobernanza de IA en Texas: Un Paso Hacia la Regulación Responsable

Ley de Gobernanza de IA de Texas Firmada por el Gobernador

El 22 de junio de 2025, el Gobernador de Texas, Greg Abbott, firmó la Ley de Gobernanza Responsable de IA de Texas (TRAIGA). A pesar del debate en curso en el Senado de EE. UU. sobre una disposición en el proyecto de reconciliación que declara una moratoria sobre la capacidad de los estados para legislar sobre inteligencia artificial (IA), la firma de la HB 149 es una declaración de que los estados continuarán legislando en lo que respecta a la protección del consumidor y el uso de la IA, a menos que esto sea preemptado por un proyecto de reconciliación final aprobado. Este proyecto aún está pendiente en el Senado al momento de redactar este documento.

Según la oficina de Abbott:

“Al promulgar la Ley de Gobernanza Responsable de IA de Texas, el Gobernador Abbott está demostrando un liderazgo al estilo de Texas en la gobernanza de la inteligencia artificial. En un momento en que otros afirman que la IA es una tecnología excepcional que no debe tener restricciones, Texas muestra que es críticamente importante garantizar tanto la innovación como la seguridad ciudadana. El apoyo del Gobernador Abbott también destaca la importancia de los estados como laboratorios nacionales bipartidistas para desarrollar ágilmente políticas de IA.”

Objetivos de la Ley

La ley busca:

  • Facilitar y avanzar el desarrollo y uso responsable de sistemas de inteligencia artificial;
  • Proteger a individuos y grupos de individuos de riesgos conocidos y razonablemente previsibles asociados con los sistemas de inteligencia artificial;
  • Proporcionar transparencia respecto a los riesgos en el desarrollo, implementación y uso de los sistemas de inteligencia artificial;
  • Brindar un aviso razonable sobre el uso o el uso contemplado de sistemas de inteligencia artificial por parte de agencias estatales.

Aplicación de la Ley

TRAIGA se aplica a desarrolladores y desplegadores de sistemas de IA, incluyendo entidades gubernamentales. Se define ampliamente a un desarrollador y desplegador de IA como aquel que “desarrolla o despliega un sistema de inteligencia artificial en Texas.” Exige que las entidades gubernamentales proporcionen un aviso claro y conspicuo a los consumidores, antes o en el momento de la interacción, indicando que el consumidor está interactuando con IA, lo que se puede hacer a través de un hipervínculo.

Además, prohíbe a las entidades gubernamentales utilizar IA para asignar un puntaje social, incluyendo la evaluación de individuos basándose en características personales de comportamiento social, o identificar de manera única a un consumidor utilizando datos biométricos sin el consentimiento del individuo.

Prohibiciones Específicas

TRAIGA también prohíbe a cualquier persona desarrollar o desplegar un sistema de IA que “intencionalmente busque incitar o alentar a una persona a:

  • Cometer autolesiones físicas, incluyendo el suicidio;
  • Hacer daño a otra persona;
  • Participar en actividades criminales.

Además, prohíbe desarrollar o desplegar un sistema de IA con la “única intención” de “infringir, restringir o de otro modo menoscabar los derechos de un individuo garantizados bajo la Constitución de los Estados Unidos,” o “discriminar ilegalmente contra una clase protegida,” o “producir, asistir o ayudar en la producción o distribución” de contenido sexual explícito y pornografía infantil, incluyendo deep fakes.

Jurisdicción y Penalizaciones

El Fiscal General de Texas tiene jurisdicción exclusiva sobre la aplicación de TRAIGA y puede imponer penalizaciones civiles tras determinación judicial, dependiendo de la intención y la falta de remediación de las violaciones en montos que oscilan entre $10,000 y $200,000, con una violación continua sujeta a penalizaciones de no menos de $2,000 y no más de $40,000 “por cada día que continúe la violación.”

La ley entrará en vigor el 1 de enero de 2026, por lo que ahora es el momento de determinar si se aplica a usted y qué medidas tomar para cumplir.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...