Nuevas Leyes de IA: Enfoques Contrastantes en Colorado y Utah

DOS NUEVAS LEYES DE IA, DOS DIRECCIONES DIFERENTES (POR AHORA)

Las recientes decisiones legislativas en Colorado y Utah han puesto de manifiesto la complejidad y la diversidad de enfoques en la regulación de la inteligencia artificial (IA) en los Estados Unidos. Mientras que Colorado ha rechazado enmiendas significativas a su Ley de IA, Utah ha implementado modificaciones que refuerzan la protección del consumidor y fomentan la innovación responsable.

Aspectos Clave

  • Rechazo de enmiendas en Colorado.
  • Enmiendas aprobadas en Utah que incluyen un refugio seguro para chatbots de salud mental.
  • Marco de políticas y procedimientos en el refugio seguro de Utah.

Enmiendas Rechazadas en Colorado

La semana pasada, se presentaron enmiendas muy esperadas a la Ley de IA de Colorado (CAIA) ante la legislatura. Sin embargo, en un giro sorprendente, todas las enmiendas propuestas fueron rechazadas. Esto establece el escenario para la fecha de entrada en vigor de la ley, programada para el 1 de febrero de 2026, que impactará cómo se debe utilizar la IA con los consumidores.

El rechazo de estas enmiendas resulta instructivo para otros estados que están considerando adoptar sus propias versiones de leyes de IA para la protección del consumidor. Entre las enmiendas rechazadas se encontraban propuestas que eximían tecnologías específicas de la definición de «alto riesgo» y eliminaban la obligación de los desarrolladores de proteger a los consumidores.

Enmiendas de IA en Utah

Por otro lado, Utah ha tomado un enfoque más proactivo. La Ley de Política de IA de Utah (UAIP) se ha modificado para incluir un refugio seguro que protege a los chatbots de salud mental. Este refugio implica la creación de una política escrita y procedimientos que aseguren la involucración de terapeutas en el desarrollo de estos sistemas.

Las enmiendas se basan en las mejores prácticas publicadas por la Oficina de Política de IA de Utah, que se centran en aspectos como:

  1. Consentimiento informado.
  2. Divulgación.
  3. Privacidad y seguridad de datos.
  4. Competencia.
  5. Necesidades del paciente.
  6. Monitoreo y reevaluación continua.

Estas directrices no solo establecen un estándar para el uso de la IA en el sector de la salud mental, sino que también exigen que los terapeutas mantengan un alto nivel de competencia, lo que incluye la educación continua sobre las capacidades y limitaciones de las tecnologías de IA.

Refugio Seguro y Responsabilidad

La House Bill 452 de Utah incluye una disposición de defensa afirmativa para los chatbots de salud mental, lo que significa que estos pueden gozar de un refugio seguro frente a litigios por daños. Para calificar para esta protección, el proveedor debe desarrollar una política escrita que declare el propósito del chatbot y sus capacidades y límites.

Además, se requieren procedimientos que aseguren que los terapeutas estén involucrados en el desarrollo y monitoreo del chatbot, garantizando que se sigan las mejores prácticas clínicas.

Reflexiones Finales

Las decisiones en Colorado y Utah subrayan la necesidad de una alfabetización en IA como requisito esencial en la regulación de esta tecnología. Mientras que Colorado se enfrenta a la incertidumbre tras el rechazo de enmiendas, Utah avanza con un marco que podría servir como modelo para otros estados.

More Insights

Código de Práctica de IA de Uso General de la Comisión Europea

El 10 de julio de 2025, la Comisión Europea publicó la versión final del Código de Práctica para la IA de Propósito General, tres semanas antes de que entren en vigor las obligaciones relacionadas con...

Código de Práctica de la UE para la IA: Clave para el Cumplimiento

La Unión Europea ha publicado un nuevo código de prácticas voluntario para ayudar a las empresas a cumplir con su próxima Ley de IA. Este código se centra en áreas clave como las obligaciones de...

Responsabilidad en IA: Reformando la Adquisición Pública

En 2018, se reveló que el Departamento de Policía de Nueva Orleans estaba utilizando un software de policía predictiva de Palantir, lo que generó preocupaciones sobre el sesgo racial. Este caso...

Tokio Marine implementa un marco de gobernanza para la IA

Tokio Marine Holdings ha introducido un marco formal de gobernanza de IA para guiar cómo sus empresas del grupo global desarrollan y utilizan la inteligencia artificial. La política, anunciada el 16...

La Explosión de la IA Sombra: Urgente Necesidad de Gobernanza

La inteligencia artificial generativa (GenAI) ya está profundamente integrada en las empresas, aunque los gerentes no siempre se dan cuenta. Esto se conoce como Shadow AI: el uso no aprobado y no...

La Fragmentación y Captura en la Regulación de la IA

En una nueva investigación, Filippo Lancieri, Laura Edelson y Stefan Bechtold exploran cómo la economía política de la regulación de la inteligencia artificial está condicionada por el comportamiento...