Ley de Transparencia de IA en Utah: Lo Que Necesitas Saber

Guía de la Ley TCAI: HB 286, la Ley de Transparencia de IA de Utah

Feb. 12, 2026 — Utah es conocido como un líder nacional en la gestión de inteligencia artificial. El año pasado, la legislatura estatal adoptó leyes que requieren la divulgación de interacciones con IA, regulan el uso de chatbots de salud mental impulsados por IA y extienden las protecciones contra deepfakes generados por IA.

Contenido de la Ley HB 286

La Ley HB 286, la Ley de Transparencia de IA de Utah, se aplica específicamente a los desarrolladores de modelos de IA de frontera, que son los modelos más grandes y poderosos. No se aplica a modelos más pequeños ni a universidades que desarrollan o utilizan modelos de frontera para investigación.

Plan de seguridad pública para riesgos catastróficos

La ley requiere que los desarrolladores de modelos de frontera implementen y publiquen un plan de seguridad pública. Este plan debe incluir:

  • Normas nacionales y mejores prácticas de la industria;
  • Definir y evaluar umbrales utilizados para identificar riesgos catastróficos potenciales;
  • Aplicar mitigaciones para abordar los riesgos potenciales;
  • Utilizar terceros para evaluar riesgos y la efectividad de las mitigaciones;
  • Revisar y actualizar el plan;
  • Implementar prácticas de ciberseguridad;
  • Identificar y responder a incidentes de seguridad críticos;
  • Establecer prácticas de gobernanza interna para asegurar el cumplimiento de la ley.

El término «riesgo catastrófico» se refiere a un riesgo de que un modelo de frontera pueda ayudar a crear un arma química, biológica, radiológica o nuclear, participar en un ciberataque, evadir el control del desarrollador o usuario del modelo, o involucrarse en cualquier conducta que viole la ley.

Plan de protección infantil

La ley también requiere que los desarrolladores de modelos de frontera implementen y publiquen un plan de protección infantil. Este plan debe:

  • Incorporar normas nacionales y mejores prácticas de la industria;
  • Evaluar el potencial de riesgos para la seguridad infantil;
  • Mitigar los riesgos potenciales para la seguridad infantil;
  • Utilizar terceros para evaluar los riesgos potenciales y la efectividad de los planes de mitigación;
  • Revisar y actualizar el plan de protección infantil;
  • Identificar y responder a incidentes de seguridad infantil;
  • Establecer prácticas de gobernanza interna para asegurar la implementación de estos protocolos.

El término «riesgo de seguridad infantil» implica un riesgo de que el modelo de frontera, al ser utilizado como parte de un chatbot operado por el desarrollador, pueda involucrarse en un comportamiento que cause daño o lesiones a un menor.

Transparencia y reportes de incidentes de seguridad

Según la ley, un desarrollador de modelos de frontera no puede hacer declaraciones materialmente falsas o engañosas sobre los riesgos de las actividades del desarrollador, la gestión o el cumplimiento. Se permite la redacción de documentos públicos para proteger secretos comerciales, ciberseguridad, seguridad pública y cumplimiento de leyes federales o estatales.

Protecciones para denunciantes

Un desarrollador de modelos de frontera debe proporcionar un proceso interno razonable para que los empleados informen de forma anónima sobre amenazas a la salud pública o violaciones a la ley. No se pueden tomar acciones adversas contra un empleado que desee proporcionar información sobre la ley.

Conclusión

La Ley HB 286 tiene como objetivo garantizar la seguridad pública y la protección infantil en el contexto del desarrollo de inteligencia artificial. A través de la implementación de planes de seguridad, transparencia y protección para denunciantes, se busca establecer un marco regulatorio que permita la innovación tecnológica sin comprometer la seguridad de los ciudadanos.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...