Texas establece un camino independiente para regular la IA

Regulación de IA en Texas: Un Camino Independiente

El Texas Responsible Artificial Intelligence Governance Act (TRAIGA) ha sido aprobado por la legislatura de Texas y está a la espera de la firma del gobernador Greg Abbott. Esta ley tiene como objetivo regular el desarrollo y uso de la inteligencia artificial (IA) tanto en el sector público como en el privado, y se espera que entre en vigor el 1 de enero de 2026, si es firmada.

Contexto y Motivación

TRAIGA representa el intento más completo de Texas para establecer un marco de supervisión sobre las tecnologías de IA, en un contexto donde se están llevando a cabo debates nacionales sobre el papel del aprendizaje automático en la vida cotidiana. La aprobación de este proyecto de ley coincide con una ola de esfuerzos liderados por estados como Colorado, Utah y California, que buscan imponer límites en el uso de la IA, mientras que los legisladores federales consideran acciones preventivas que podrían despojar a los estados de esa autoridad.

Desarrollo del Proyecto de Ley

Inicialmente propuesto como un marco integral basado en riesgos, modelado en parte según la Ley de IA de la Unión Europea, la versión final de TRAIGA refleja meses de negociación política y cabildeo industrial que han reducido considerablemente su alcance. La versión actual ya no presenta un modelo escalonado de riesgos o obligaciones de sistemas de IA; en cambio, se enfoca en prohibir ciertos usos dañinos de la IA, reforzando las protecciones de derechos civiles existentes bajo la ley federal y estatal.

Obligaciones para los Desarrolladores y Usuarios de IA

A pesar de su alcance limitado en comparación con borradores anteriores, TRAIGA introduce obligaciones notables para los desarrolladores, implementadores y usuarios gubernamentales de tecnologías de IA en Texas.

El representante estatal de Texas, Giovanni Capriglione, señaló que TRAIGA “representa un giro hacia la armonización de la política de IA dentro de los marcos existentes de privacidad y protección del consumidor”.

Implicaciones y Retos

Sin embargo, la futura implementación de la ley puede no estar completamente bajo el control de Texas. A mediados de junio, se incluyó en un proyecto de ley federal de reconciliación presupuestaria un moratorio propuesto de 10 años sobre nuevas leyes estatales de IA. Si esta medida federal se aprueba, leyes como TRAIGA podrían verse bloqueadas, creando un conflicto entre la soberanía estatal y la uniformidad reguladora nacional.

Prohibiciones Específicas

TRAIGA incluye un conjunto central de disposiciones destinadas a mitigar lo que los legisladores caracterizan como las amenazas más graves e inmediatas planteadas por la IA no regulada. La ley prohíbe específicamente el desarrollo o la implementación de sistemas de IA que discriminen intencionalmente a individuos basándose en características protegidas bajo la ley estatal y federal.

Además, la legislación aborda un uso más amplio de la IA que involucra la manipulación del comportamiento, prohibiendo el uso de sistemas de IA que menoscaben los derechos constitucionales de un individuo, fomenten el autolesionismo, promuevan la violencia o faciliten conductas delictivas.

Uso Gubernamental de IA

Uno de los aspectos más significativos de TRAIGA es su actualización de la Ley de Identificadores Biométricos de Texas. La ley establece que los datos biométricos, como huellas dactilares y escaneos de retina, no pueden ser recolectados de medios en línea públicos a menos que esos medios hayan sido publicados por el propio sujeto.

Conclusiones

En su forma final, TRAIGA no es ni un marco de gobernanza de IA abrumador ni una aprobación laissez-faire del desarrollo no regulado. En cambio, representa un intento cuidadosamente negociado de abordar riesgos inmediatos mientras se deja espacio para el crecimiento y el desarrollo futuro de políticas.

Las restricciones más estrictas se aplican a las agencias gubernamentales, mientras que las empresas privadas tienen mayor libertad, siempre que se mantengan dentro de límites claramente definidos relacionados con las libertades civiles, la privacidad biométrica y la manipulación del comportamiento.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...