Regulación de IA en Texas: Un Camino Independiente
El Texas Responsible Artificial Intelligence Governance Act (TRAIGA) ha sido aprobado por la legislatura de Texas y está a la espera de la firma del gobernador Greg Abbott. Esta ley tiene como objetivo regular el desarrollo y uso de la inteligencia artificial (IA) tanto en el sector público como en el privado, y se espera que entre en vigor el 1 de enero de 2026, si es firmada.
Contexto y Motivación
TRAIGA representa el intento más completo de Texas para establecer un marco de supervisión sobre las tecnologías de IA, en un contexto donde se están llevando a cabo debates nacionales sobre el papel del aprendizaje automático en la vida cotidiana. La aprobación de este proyecto de ley coincide con una ola de esfuerzos liderados por estados como Colorado, Utah y California, que buscan imponer límites en el uso de la IA, mientras que los legisladores federales consideran acciones preventivas que podrían despojar a los estados de esa autoridad.
Desarrollo del Proyecto de Ley
Inicialmente propuesto como un marco integral basado en riesgos, modelado en parte según la Ley de IA de la Unión Europea, la versión final de TRAIGA refleja meses de negociación política y cabildeo industrial que han reducido considerablemente su alcance. La versión actual ya no presenta un modelo escalonado de riesgos o obligaciones de sistemas de IA; en cambio, se enfoca en prohibir ciertos usos dañinos de la IA, reforzando las protecciones de derechos civiles existentes bajo la ley federal y estatal.
Obligaciones para los Desarrolladores y Usuarios de IA
A pesar de su alcance limitado en comparación con borradores anteriores, TRAIGA introduce obligaciones notables para los desarrolladores, implementadores y usuarios gubernamentales de tecnologías de IA en Texas.
El representante estatal de Texas, Giovanni Capriglione, señaló que TRAIGA “representa un giro hacia la armonización de la política de IA dentro de los marcos existentes de privacidad y protección del consumidor”.
Implicaciones y Retos
Sin embargo, la futura implementación de la ley puede no estar completamente bajo el control de Texas. A mediados de junio, se incluyó en un proyecto de ley federal de reconciliación presupuestaria un moratorio propuesto de 10 años sobre nuevas leyes estatales de IA. Si esta medida federal se aprueba, leyes como TRAIGA podrían verse bloqueadas, creando un conflicto entre la soberanía estatal y la uniformidad reguladora nacional.
Prohibiciones Específicas
TRAIGA incluye un conjunto central de disposiciones destinadas a mitigar lo que los legisladores caracterizan como las amenazas más graves e inmediatas planteadas por la IA no regulada. La ley prohíbe específicamente el desarrollo o la implementación de sistemas de IA que discriminen intencionalmente a individuos basándose en características protegidas bajo la ley estatal y federal.
Además, la legislación aborda un uso más amplio de la IA que involucra la manipulación del comportamiento, prohibiendo el uso de sistemas de IA que menoscaben los derechos constitucionales de un individuo, fomenten el autolesionismo, promuevan la violencia o faciliten conductas delictivas.
Uso Gubernamental de IA
Uno de los aspectos más significativos de TRAIGA es su actualización de la Ley de Identificadores Biométricos de Texas. La ley establece que los datos biométricos, como huellas dactilares y escaneos de retina, no pueden ser recolectados de medios en línea públicos a menos que esos medios hayan sido publicados por el propio sujeto.
Conclusiones
En su forma final, TRAIGA no es ni un marco de gobernanza de IA abrumador ni una aprobación laissez-faire del desarrollo no regulado. En cambio, representa un intento cuidadosamente negociado de abordar riesgos inmediatos mientras se deja espacio para el crecimiento y el desarrollo futuro de políticas.
Las restricciones más estrictas se aplican a las agencias gubernamentales, mientras que las empresas privadas tienen mayor libertad, siempre que se mantengan dentro de límites claramente definidos relacionados con las libertades civiles, la privacidad biométrica y la manipulación del comportamiento.