Colorado se Prepara para Revisar Su Ley de IA Tras la Reacción de la Industria
Los legisladores de Colorado están preparando una revisión de una de las primeras leyes sobre inteligencia artificial más completas en los Estados Unidos, después de meses de tensión entre reguladores, defensores del consumidor y la industria tecnológica.
Un nuevo marco de políticas publicado describe cómo el estado podría ajustar su ley de IA de 2024 antes de que comience la aplicación más adelante este año.
Por qué se Está Revisando la Ley
Cuando Colorado aprobó su ley de IA en 2024, atrajo la atención nacional por adoptar un enfoque temprano y completo. La ley se centró en los sistemas de IA de «alto riesgo», como:
- Solicitudes de empleo
- Acceso a la vivienda
- Decisiones financieras
- Servicios gubernamentales
Introdujo requisitos destinados a prevenir la discriminación algorítmica y aumentar la responsabilidad. Sin embargo, poco después, las empresas expresaron preocupaciones. Los requisitos eran demasiado amplios, complejos y podrían aumentar significativamente el costo de usar sistemas de IA. En respuesta, el estado retrasó la aplicación y formó un grupo de trabajo para revisar el enfoque.
Qué Cambia la Nueva Propuesta
El marco actualizado refleja un intento de encontrar un punto medio. En lugar de imponer una responsabilidad estricta y unilateral, la propuesta introduce un modelo de responsabilidad más compartido.
Los desarrolladores estarían obligados a:
- Divulgar cómo funcionan sus sistemas
- Proporcionar información sobre las fuentes de datos y sus limitaciones
Las organizaciones se esperarían a:
- Informar a las personas cuando se utilice IA en decisiones
- Usar un lenguaje claro y sencillo al hacerlo
Este es un cambio respecto a la estructura original, donde la responsabilidad estaba más concentrada en un solo lugar.
Un Nuevo Enfoque a la Responsabilidad
Uno de los cambios más importantes implica la responsabilidad. La ley original generó preocupaciones porque podría colocar una gran parte de la responsabilidad en una sola parte, incluso cuando varios actores estaban involucrados en cómo se desarrollaba y utilizaba un sistema de IA.
El marco revisado adopta un enfoque diferente. La responsabilidad ahora se asignaría según quién hizo qué:
- Los desarrolladores serían responsables de cómo se construyen los sistemas
- Los implementadores serían responsables de cómo se utilizan
Esto refleja una visión más realista de cómo opera la IA en la práctica.
El Debate en Curso: Protección vs. Práctica
A pesar de estas revisiones, el resultado no es seguro. Algunos legisladores ya han indicado que la propuesta es solo un punto de partida, y es probable que se realicen más cambios a medida que avance en el proceso legislativo.
La tensión más amplia persiste. Por un lado:
- Protección al consumidor
- Prevención de la discriminación
- Aumento de la transparencia
Por el otro:
- Costo de cumplimiento
- Impacto en la innovación
- Capacidad práctica para implementar sistemas de IA
Colorado ahora está tratando de equilibrar ambos lados.
Lo Que Esto Significa en Práctica
Para las organizaciones, la clave es menos sobre una ley específica y más sobre la dirección. Los sistemas de IA están siendo tratados cada vez más como otros procesos comerciales regulados. Eso significa que las expectativas en torno a:
- Divulgación
- Documentación
- Responsabilidad
- Supervisión
están convirtiéndose en parte de cómo se evalúan estos sistemas. Al mismo tiempo, los reguladores aún están trabajando en cómo aplicar esas expectativas de una manera que siga siendo viable.