Texas establece un camino independiente para regular la IA

Regulación de IA en Texas: Un Camino Independiente

El Texas Responsible Artificial Intelligence Governance Act (TRAIGA) ha sido aprobado por la legislatura de Texas y está a la espera de la firma del gobernador Greg Abbott. Esta ley tiene como objetivo regular el desarrollo y uso de la inteligencia artificial (IA) tanto en el sector público como en el privado, y se espera que entre en vigor el 1 de enero de 2026, si es firmada.

Contexto y Motivación

TRAIGA representa el intento más completo de Texas para establecer un marco de supervisión sobre las tecnologías de IA, en un contexto donde se están llevando a cabo debates nacionales sobre el papel del aprendizaje automático en la vida cotidiana. La aprobación de este proyecto de ley coincide con una ola de esfuerzos liderados por estados como Colorado, Utah y California, que buscan imponer límites en el uso de la IA, mientras que los legisladores federales consideran acciones preventivas que podrían despojar a los estados de esa autoridad.

Desarrollo del Proyecto de Ley

Inicialmente propuesto como un marco integral basado en riesgos, modelado en parte según la Ley de IA de la Unión Europea, la versión final de TRAIGA refleja meses de negociación política y cabildeo industrial que han reducido considerablemente su alcance. La versión actual ya no presenta un modelo escalonado de riesgos o obligaciones de sistemas de IA; en cambio, se enfoca en prohibir ciertos usos dañinos de la IA, reforzando las protecciones de derechos civiles existentes bajo la ley federal y estatal.

Obligaciones para los Desarrolladores y Usuarios de IA

A pesar de su alcance limitado en comparación con borradores anteriores, TRAIGA introduce obligaciones notables para los desarrolladores, implementadores y usuarios gubernamentales de tecnologías de IA en Texas.

El representante estatal de Texas, Giovanni Capriglione, señaló que TRAIGA “representa un giro hacia la armonización de la política de IA dentro de los marcos existentes de privacidad y protección del consumidor”.

Implicaciones y Retos

Sin embargo, la futura implementación de la ley puede no estar completamente bajo el control de Texas. A mediados de junio, se incluyó en un proyecto de ley federal de reconciliación presupuestaria un moratorio propuesto de 10 años sobre nuevas leyes estatales de IA. Si esta medida federal se aprueba, leyes como TRAIGA podrían verse bloqueadas, creando un conflicto entre la soberanía estatal y la uniformidad reguladora nacional.

Prohibiciones Específicas

TRAIGA incluye un conjunto central de disposiciones destinadas a mitigar lo que los legisladores caracterizan como las amenazas más graves e inmediatas planteadas por la IA no regulada. La ley prohíbe específicamente el desarrollo o la implementación de sistemas de IA que discriminen intencionalmente a individuos basándose en características protegidas bajo la ley estatal y federal.

Además, la legislación aborda un uso más amplio de la IA que involucra la manipulación del comportamiento, prohibiendo el uso de sistemas de IA que menoscaben los derechos constitucionales de un individuo, fomenten el autolesionismo, promuevan la violencia o faciliten conductas delictivas.

Uso Gubernamental de IA

Uno de los aspectos más significativos de TRAIGA es su actualización de la Ley de Identificadores Biométricos de Texas. La ley establece que los datos biométricos, como huellas dactilares y escaneos de retina, no pueden ser recolectados de medios en línea públicos a menos que esos medios hayan sido publicados por el propio sujeto.

Conclusiones

En su forma final, TRAIGA no es ni un marco de gobernanza de IA abrumador ni una aprobación laissez-faire del desarrollo no regulado. En cambio, representa un intento cuidadosamente negociado de abordar riesgos inmediatos mientras se deja espacio para el crecimiento y el desarrollo futuro de políticas.

Las restricciones más estrictas se aplican a las agencias gubernamentales, mientras que las empresas privadas tienen mayor libertad, siempre que se mantengan dentro de límites claramente definidos relacionados con las libertades civiles, la privacidad biométrica y la manipulación del comportamiento.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...