Las Lagunas de las Leyes de IA: Un Análisis de Colorado y Californiah2>
En el entorno actual, las leyes que regulan la inteligencia artificial (IA) presentan un mosaico que deja importantes vacíos. Este análisis se centra en cómo las leyes de IA en b>Coloradob> y b>Californiab> abordan los derechos de privacidad de los empleados y solicitantes, revelando diferencias significativas en su aplicación.p>
Derechos de Privacidad en Coloradoh3>
La ley de privacidad de Colorado define al “b>consumidorb>” de tal manera que excluye a los empleados y solicitantes, lo que significa que los derechos de privacidad no se aplican en el contexto de las decisiones laborales. La b>Ley de IAb> de Colorado clasifica las decisiones relacionadas con el empleo como “b>consecuencialesb>”, pero no vincula estos derechos a las leyes de privacidad.p>
Las obligaciones para los equipos de recursos humanos son claras: deben proporcionar un aviso simple que explique el propósito del sistema antes de tomar decisiones. Después de una decisión adversa, los empleadores deben ofrecer razones específicas y un camino para corregir datos inexactos. Además, se requiere la implementación de un programa de riesgos que incluya evaluaciones de impacto anuales.p>
Regulaciones en Californiah3>
En contraste, California adopta un enfoque diferente. Aquí, los sistemas automatizados que toman decisiones sobre empleo son considerados “b>significativosb>”, lo que activa un aviso previo de Tecnología de Decisiones Automatizadas (ADMT) y un derecho de exclusión para esas decisiones. Si un individuo opta por excluirse, el uso del ADMT debe cesar en un plazo de 15 días hábiles.p>
Las reglas de derechos civiles en California también abarcan las herramientas automatizadas utilizadas en decisiones de contratación y promoción, enfocándose en el riesgo de discriminación y en la documentación.p>
Comparación de Estrategiash3>
En Colorado, las leyes se estructuran en torno a un proceso de b>avisob>, b>razonesb>, b>correcciónb> y b>apelaciónb>. En California, se superponen dos regímenes: el de ADMT y el marco de derechos civiles. Esto implica que los empleadores deben estar atentos a las decisiones automatizadas y garantizar que se respeten los derechos de los solicitantes en todos los niveles.p>
Desafíos y Vacíosh3>
Uno de los mayores desafíos es la forma en que los derechos de las personas cambian con su clasificación. Al pasar de “consumidor” a “solicitante”, los derechos pueden cambiar drásticamente, creando vacíos que complican el cumplimiento normativo.p>
Además, surgen soluciones alternativas que socavan la transparencia. Por ejemplo, alimentar datos seudónimos a un modelo y argumentar que las reglas de privacidad no aplican, a pesar de que las decisiones afectan a personas reales. Esto puede generar un fenómeno conocido como “b>teatro de revisión humanab>”, donde se realizan revisiones superficialmente sin autoridad real para cambiar los resultados.p>
Recomendaciones para la Regulaciónh3>
Para abordar estos problemas, se proponen dos enfoques: primero, desarrollar reglas de IA específicas por sector que clarifiquen las exenciones de obligaciones de privacidad; segundo, armonizar definiciones para que los derechos fundamentales se mantengan constantes a lo largo de todo el proceso de decisión automatizada. Estas medidas ofrecerían un marco más claro tanto para los empleados como para los empleadores.p>
En conclusión, la creación de un mapa claro y consistente para la regulación de la IA es esencial para garantizar que los derechos de las personas se respeten en un entorno que está en constante evolución.p>