Reforma de la Ley de IA en Colorado: Enfoque en la Transparencia

Reforma de la Ley de IA en Colorado para Enfocar la Transparencia

Colorado planea reformar su ley de sesgo en decisiones de IA de 2024, eliminando los requisitos de auditoría y centrando la atención en los avisos de transparencia, según un marco legislativo respaldado por el gobernador.

Apoyo Unánime

El gobernador mencionó que la propuesta cuenta con el apoyo unánime de un grupo de defensores de la tecnología y del consumidor que se reunió el año pasado para estudiar la legislación y realizar recomendaciones.

Observaciones de Empresas

Las empresas que utilizan herramientas de inteligencia artificial en la contratación han estado atentamente observando cuándo y cómo los legisladores podrían revisar el estatuto, que es la regulación de sesgo en IA más amplia de su tipo desde su promulgación inicial.

Reacciones a la Regulación

El expresidente ha buscado desalentar a los estados de imponer regulaciones estrictas sobre tecnologías de IA, lo que incluye una orden ejecutiva reciente que propone limitar el acceso a fondos federales y desafiar leyes estatales específicas en los tribunales.

Retrasos en la Legislación

La legislatura estatal decidió posponer la revisión de la ley durante una sesión especial en 2025, optando por retrasar su entrada en vigor hasta el 30 de junio de 2026. Si se aprueban las revisiones del gobernador, la fecha de entrada en vigor se trasladaría al 1 de enero de 2027.

Cambios Propuestos

La propuesta del gobernador eliminaría los requisitos detallados para auditorías de sesgo, pero mantendría una versión de los requisitos de transparencia de la ley. Por ejemplo, los empleadores tendrían que notificar a los solicitantes de empleo de antemano si están utilizando herramientas de IA para ayudar en las decisiones de contratación.

Derechos de los Solicitantes

Los solicitantes de empleo que sean rechazados tendrían derecho a recibir más información sobre los tipos de datos que las herramientas de IA tomaron en cuenta para su recomendación, la oportunidad de corregir información personal inexacta y la posibilidad de solicitar una revisión humana de la decisión «en la medida de lo razonablemente comercial», según el marco propuesto.

Aplicaciones Similares

Requisitos similares se aplicarían a las organizaciones que utilizan herramientas automatizadas para ayudar en decisiones de vivienda, crédito, educación y otras decisiones «consecuenciales».

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...