Guía de la Ley TCAI: HB 286, la Ley de Transparencia de IA de Utah
Feb. 12, 2026 — Utah es conocido como un líder nacional en la gestión de inteligencia artificial. El año pasado, la legislatura estatal adoptó leyes que requieren la divulgación de interacciones con IA, regulan el uso de chatbots de salud mental impulsados por IA y extienden las protecciones contra deepfakes generados por IA.
Contenido de la Ley HB 286
La Ley HB 286, la Ley de Transparencia de IA de Utah, se aplica específicamente a los desarrolladores de modelos de IA de frontera, que son los modelos más grandes y poderosos. No se aplica a modelos más pequeños ni a universidades que desarrollan o utilizan modelos de frontera para investigación.
Plan de seguridad pública para riesgos catastróficos
La ley requiere que los desarrolladores de modelos de frontera implementen y publiquen un plan de seguridad pública. Este plan debe incluir:
- Normas nacionales y mejores prácticas de la industria;
- Definir y evaluar umbrales utilizados para identificar riesgos catastróficos potenciales;
- Aplicar mitigaciones para abordar los riesgos potenciales;
- Utilizar terceros para evaluar riesgos y la efectividad de las mitigaciones;
- Revisar y actualizar el plan;
- Implementar prácticas de ciberseguridad;
- Identificar y responder a incidentes de seguridad críticos;
- Establecer prácticas de gobernanza interna para asegurar el cumplimiento de la ley.
El término «riesgo catastrófico» se refiere a un riesgo de que un modelo de frontera pueda ayudar a crear un arma química, biológica, radiológica o nuclear, participar en un ciberataque, evadir el control del desarrollador o usuario del modelo, o involucrarse en cualquier conducta que viole la ley.
Plan de protección infantil
La ley también requiere que los desarrolladores de modelos de frontera implementen y publiquen un plan de protección infantil. Este plan debe:
- Incorporar normas nacionales y mejores prácticas de la industria;
- Evaluar el potencial de riesgos para la seguridad infantil;
- Mitigar los riesgos potenciales para la seguridad infantil;
- Utilizar terceros para evaluar los riesgos potenciales y la efectividad de los planes de mitigación;
- Revisar y actualizar el plan de protección infantil;
- Identificar y responder a incidentes de seguridad infantil;
- Establecer prácticas de gobernanza interna para asegurar la implementación de estos protocolos.
El término «riesgo de seguridad infantil» implica un riesgo de que el modelo de frontera, al ser utilizado como parte de un chatbot operado por el desarrollador, pueda involucrarse en un comportamiento que cause daño o lesiones a un menor.
Transparencia y reportes de incidentes de seguridad
Según la ley, un desarrollador de modelos de frontera no puede hacer declaraciones materialmente falsas o engañosas sobre los riesgos de las actividades del desarrollador, la gestión o el cumplimiento. Se permite la redacción de documentos públicos para proteger secretos comerciales, ciberseguridad, seguridad pública y cumplimiento de leyes federales o estatales.
Protecciones para denunciantes
Un desarrollador de modelos de frontera debe proporcionar un proceso interno razonable para que los empleados informen de forma anónima sobre amenazas a la salud pública o violaciones a la ley. No se pueden tomar acciones adversas contra un empleado que desee proporcionar información sobre la ley.
Conclusión
La Ley HB 286 tiene como objetivo garantizar la seguridad pública y la protección infantil en el contexto del desarrollo de inteligencia artificial. A través de la implementación de planes de seguridad, transparencia y protección para denunciantes, se busca establecer un marco regulatorio que permita la innovación tecnológica sin comprometer la seguridad de los ciudadanos.