Texas establece un camino independiente para regular la IA

Regulación de IA en Texas: Un Camino Independiente

El Texas Responsible Artificial Intelligence Governance Act (TRAIGA) ha sido aprobado por la legislatura de Texas y está a la espera de la firma del gobernador Greg Abbott. Esta ley tiene como objetivo regular el desarrollo y uso de la inteligencia artificial (IA) tanto en el sector público como en el privado, y se espera que entre en vigor el 1 de enero de 2026, si es firmada.

Contexto y Motivación

TRAIGA representa el intento más completo de Texas para establecer un marco de supervisión sobre las tecnologías de IA, en un contexto donde se están llevando a cabo debates nacionales sobre el papel del aprendizaje automático en la vida cotidiana. La aprobación de este proyecto de ley coincide con una ola de esfuerzos liderados por estados como Colorado, Utah y California, que buscan imponer límites en el uso de la IA, mientras que los legisladores federales consideran acciones preventivas que podrían despojar a los estados de esa autoridad.

Desarrollo del Proyecto de Ley

Inicialmente propuesto como un marco integral basado en riesgos, modelado en parte según la Ley de IA de la Unión Europea, la versión final de TRAIGA refleja meses de negociación política y cabildeo industrial que han reducido considerablemente su alcance. La versión actual ya no presenta un modelo escalonado de riesgos o obligaciones de sistemas de IA; en cambio, se enfoca en prohibir ciertos usos dañinos de la IA, reforzando las protecciones de derechos civiles existentes bajo la ley federal y estatal.

Obligaciones para los Desarrolladores y Usuarios de IA

A pesar de su alcance limitado en comparación con borradores anteriores, TRAIGA introduce obligaciones notables para los desarrolladores, implementadores y usuarios gubernamentales de tecnologías de IA en Texas.

El representante estatal de Texas, Giovanni Capriglione, señaló que TRAIGA “representa un giro hacia la armonización de la política de IA dentro de los marcos existentes de privacidad y protección del consumidor”.

Implicaciones y Retos

Sin embargo, la futura implementación de la ley puede no estar completamente bajo el control de Texas. A mediados de junio, se incluyó en un proyecto de ley federal de reconciliación presupuestaria un moratorio propuesto de 10 años sobre nuevas leyes estatales de IA. Si esta medida federal se aprueba, leyes como TRAIGA podrían verse bloqueadas, creando un conflicto entre la soberanía estatal y la uniformidad reguladora nacional.

Prohibiciones Específicas

TRAIGA incluye un conjunto central de disposiciones destinadas a mitigar lo que los legisladores caracterizan como las amenazas más graves e inmediatas planteadas por la IA no regulada. La ley prohíbe específicamente el desarrollo o la implementación de sistemas de IA que discriminen intencionalmente a individuos basándose en características protegidas bajo la ley estatal y federal.

Además, la legislación aborda un uso más amplio de la IA que involucra la manipulación del comportamiento, prohibiendo el uso de sistemas de IA que menoscaben los derechos constitucionales de un individuo, fomenten el autolesionismo, promuevan la violencia o faciliten conductas delictivas.

Uso Gubernamental de IA

Uno de los aspectos más significativos de TRAIGA es su actualización de la Ley de Identificadores Biométricos de Texas. La ley establece que los datos biométricos, como huellas dactilares y escaneos de retina, no pueden ser recolectados de medios en línea públicos a menos que esos medios hayan sido publicados por el propio sujeto.

Conclusiones

En su forma final, TRAIGA no es ni un marco de gobernanza de IA abrumador ni una aprobación laissez-faire del desarrollo no regulado. En cambio, representa un intento cuidadosamente negociado de abordar riesgos inmediatos mientras se deja espacio para el crecimiento y el desarrollo futuro de políticas.

Las restricciones más estrictas se aplican a las agencias gubernamentales, mientras que las empresas privadas tienen mayor libertad, siempre que se mantengan dentro de límites claramente definidos relacionados con las libertades civiles, la privacidad biométrica y la manipulación del comportamiento.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...