Mile‑High machine learning: Nuevo marco político podría alterar significativamente la Ley de IA de Colorado
Una nueva propuesta de un grupo convocado por el gobernador de Colorado para derogar y reemplazar la Ley de IA de Colorado cambia el enfoque del marco de IA del estado, pasando de regular cómo se diseñan, implementan y monitorean los sistemas de IA de alto riesgo a consideraciones sobre los derechos de los consumidores y las obligaciones de transparencia. Si se aprueba, el marco reduciría significativamente las obligaciones de cumplimiento prescriptivas para los desarrolladores y desplegadores de IA, ampliaría el alcance de los sistemas regulados y recalibraría la exposición a la responsabilidad, dejando preguntas abiertas sobre cómo se harán cumplir las leyes existentes de discriminación y protección al consumidor en la práctica.
Antecedentes
El 17 de marzo de 2026, casi dos años después de la promulgación de la Ley de Inteligencia Artificial de Colorado (CAIA), el Grupo de Trabajo de Política de IA de Colorado hizo pública su propuesta para derogar y reemplazar la CAIA. La CAIA, modelada de manera laxa en la Ley de IA de la UE, adopta un enfoque basado en riesgos y se centra en los «sistemas de IA de alto riesgo», que son aquellos que influyen de manera considerable en decisiones relacionadas con la educación, el empleo, los servicios gubernamentales esenciales, la atención médica, la vivienda, el seguro o los servicios legales. Esta ley exige a los desarrolladores y desplegadores de dichos sistemas que eviten la discriminación algorítmica y que divulguen información específica a las partes interesadas.
Propuesta de un nuevo marco
La propuesta del Grupo de Trabajo amplía el alcance de los sistemas que se regirían por la ley, pasando de regular «sistemas de IA de alto riesgo» a «Tecnologías de Toma de Decisiones Automatizadas» (ADMT) que se utilizan para influir de manera material en decisiones significativas. Además, excluye actividades como la publicidad, el marketing y la moderación de contenido de la definición de «decisión significativa».
Cambio estructural: De la gobernanza basada en riesgos a la transparencia
La propuesta se aparta de un marco que se asemeja más a la regulación europea de IA, centrada en la gobernanza de riesgos, y se orienta hacia un marco basado en la notificación y la transparencia. En lugar de imponer un deber de cuidado a los desarrolladores, la propuesta requiere que estos proporcionen documentación sobre los sistemas ADMT, incluyendo sus usos pretendidos y limitaciones conocidas.
Los desplegadores, por su parte, tendrían que retener registros durante al menos tres años y proporcionar a los consumidores una notificación de «punto de interacción» sobre el uso de un sistema ADMT cubierto. También deben informar a los consumidores de un «resultado adverso» dentro de los 30 días.
Implicaciones prácticas para las empresas
Aunque la propuesta reduciría el alcance de la gobernanza de IA en Colorado, no elimina la exposición bajo las leyes existentes de discriminación, protección al consumidor o privacidad. Las empresas aún deben cumplir con las obligaciones de evitar prácticas discriminatorias, lo que requiere algún tipo de evaluación de las tecnologías que utilizan. Además, deben revisar las disposiciones de responsabilidad en sus acuerdos de contrato.
Conclusión
A pesar del apoyo unánime del Grupo de Trabajo de Política de IA de Colorado, esta propuesta todavía debe ser considerada formalmente. Algunas reacciones de los legisladores han sido mixtas, lo que indica que aún queda camino por recorrer antes de que se convierta en ley.