Reforma del marco regulatorio de IA en Colorado

Mile‑High machine learning: Nuevo marco político podría alterar significativamente la Ley de IA de Colorado

Una nueva propuesta de un grupo convocado por el gobernador de Colorado para derogar y reemplazar la Ley de IA de Colorado cambia el enfoque del marco de IA del estado, pasando de regular cómo se diseñan, implementan y monitorean los sistemas de IA de alto riesgo a consideraciones sobre los derechos de los consumidores y las obligaciones de transparencia. Si se aprueba, el marco reduciría significativamente las obligaciones de cumplimiento prescriptivas para los desarrolladores y desplegadores de IA, ampliaría el alcance de los sistemas regulados y recalibraría la exposición a la responsabilidad, dejando preguntas abiertas sobre cómo se harán cumplir las leyes existentes de discriminación y protección al consumidor en la práctica.

Antecedentes

El 17 de marzo de 2026, casi dos años después de la promulgación de la Ley de Inteligencia Artificial de Colorado (CAIA), el Grupo de Trabajo de Política de IA de Colorado hizo pública su propuesta para derogar y reemplazar la CAIA. La CAIA, modelada de manera laxa en la Ley de IA de la UE, adopta un enfoque basado en riesgos y se centra en los «sistemas de IA de alto riesgo», que son aquellos que influyen de manera considerable en decisiones relacionadas con la educación, el empleo, los servicios gubernamentales esenciales, la atención médica, la vivienda, el seguro o los servicios legales. Esta ley exige a los desarrolladores y desplegadores de dichos sistemas que eviten la discriminación algorítmica y que divulguen información específica a las partes interesadas.

Propuesta de un nuevo marco

La propuesta del Grupo de Trabajo amplía el alcance de los sistemas que se regirían por la ley, pasando de regular «sistemas de IA de alto riesgo» a «Tecnologías de Toma de Decisiones Automatizadas» (ADMT) que se utilizan para influir de manera material en decisiones significativas. Además, excluye actividades como la publicidad, el marketing y la moderación de contenido de la definición de «decisión significativa».

Cambio estructural: De la gobernanza basada en riesgos a la transparencia

La propuesta se aparta de un marco que se asemeja más a la regulación europea de IA, centrada en la gobernanza de riesgos, y se orienta hacia un marco basado en la notificación y la transparencia. En lugar de imponer un deber de cuidado a los desarrolladores, la propuesta requiere que estos proporcionen documentación sobre los sistemas ADMT, incluyendo sus usos pretendidos y limitaciones conocidas.

Los desplegadores, por su parte, tendrían que retener registros durante al menos tres años y proporcionar a los consumidores una notificación de «punto de interacción» sobre el uso de un sistema ADMT cubierto. También deben informar a los consumidores de un «resultado adverso» dentro de los 30 días.

Implicaciones prácticas para las empresas

Aunque la propuesta reduciría el alcance de la gobernanza de IA en Colorado, no elimina la exposición bajo las leyes existentes de discriminación, protección al consumidor o privacidad. Las empresas aún deben cumplir con las obligaciones de evitar prácticas discriminatorias, lo que requiere algún tipo de evaluación de las tecnologías que utilizan. Además, deben revisar las disposiciones de responsabilidad en sus acuerdos de contrato.

Conclusión

A pesar del apoyo unánime del Grupo de Trabajo de Política de IA de Colorado, esta propuesta todavía debe ser considerada formalmente. Algunas reacciones de los legisladores han sido mixtas, lo que indica que aún queda camino por recorrer antes de que se convierta en ley.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...