Regulación Estatal de la Toma de Decisiones Automatizadas

La Regulación del AI en la Toma de Decisiones Automatizadas

En la ausencia de una regulación integral de la inteligencia artificial (AI) a nivel federal, las legislaturas estatales y locales han comenzado a considerar su propia legislación sobre AI. Las leyes que regulan la toma de decisiones automatizadas han surgido como una prioridad temprana para el gobierno local. Aunque no existe una definición uniforme de toma de decisiones automatizadas, se puede entender como el uso de AI, sistemas de aprendizaje automático y/o algoritmos para tomar decisiones sin o con un mínimo de intervención y control humano.

Las legislaturas parecen interesadas en mitigar el riesgo percibido de que los sistemas de AI se utilicen para tomar decisiones significativas que discriminen o afecten negativamente a los consumidores en diversos contextos, particularmente en lo que respecta al empleo y las oportunidades laborales. Además, muchas leyes estatales de privacidad otorgan a los consumidores el derecho a optar por no participar en el procesamiento de datos para la creación de perfiles basados en decisiones automatizadas.

Leyes Estatales y Locales que Regulan la Toma de Decisiones Automatizadas

Actualmente, estados como Colorado, Illinois y la ciudad de Nueva York han promulgado leyes que regulan la toma de decisiones automatizadas por sistemas de AI. Cada una de estas leyes busca prevenir el uso de la AI en la toma de decisiones que resulte en discriminación contra los consumidores por razones de clases protegidas.

Colorado

El Colorado AI Act, que entrará en vigor el 1 de febrero de 2026, es la primera legislación integral sobre AI en los Estados Unidos. Esta ley se aplica a entidades privadas y gubernamentales que desarrollan y despliegan sistemas de AI de alto riesgo.

Obligaciones Clave

La ley impone un deber de cuidado razonable a los desarrolladores y desplegadores de sistemas de AI de alto riesgo para proteger a los consumidores de cualquier riesgo conocido o previsible de discriminación algorítmica. Entre otros requisitos, la ley exige que los desplegadores realicen evaluaciones de impacto anuales y que divulguen cualquier riesgo conocido o previsible de discriminación algorítmica.

Aplicación

El Fiscal General de Colorado tiene la autoridad exclusiva para hacer cumplir la ley, y las violaciones pueden ser castigadas con multas o medidas cautelares.

Illinois

La legislatura estatal de Illinois enmendó la Human Rights Act para regular la toma de decisiones automatizadas por sistemas de AI exclusivamente en diversos contextos laborales, que entrará en vigor el 1 de enero de 2026.

Obligaciones Clave

Los empleadores cometen una violación de derechos humanos si utilizan sistemas de AI que resultan en discriminación contra los consumidores en contextos como la contratación o el despido.

Aplicación

Las personas afectadas pueden presentar quejas ante el Departamento de Derechos Humanos de Illinois, que tiene la autoridad para investigar y celebrar audiencias públicas.

Nueva York

La Local Law 144 de la ciudad de Nueva York regula el uso de herramientas de decisión automatizadas en empleos. Esta ley exige que los empleadores realicen una auditoría de sesgo y publiquen los resultados antes de utilizar sistemas de AI en decisiones laborales.

Obligaciones Clave

  • Transparencia: Los empleadores deben realizar auditorías de sesgo y publicar los resultados antes de utilizar sistemas de AI.
  • Notificación previa: Deben notificar a los candidatos con al menos 10 días hábiles de antelación.

Aplicación

El Consejo de la Ciudad de Nueva York puede tomar acciones legales por violaciones a esta ley, y las sanciones monetarias oscilan entre $500 y $1,500 por violación.

Leyes de Privacidad Estatal

Las leyes estatales de privacidad imponen obligaciones específicas a las empresas que participan en actividades de creación de perfiles. Estas obligaciones incluyen proporcionar a los consumidores el derecho a optar por no participar y realizar evaluaciones de protección de datos.

Obligaciones Clave

  • Derecho del consumidor a optar por no participar: Las decisiones que producen efectos legales significativos deben permitir a los consumidores optar por no participar.
  • Evaluaciones de protección de datos: Se requiere que las organizaciones realicen evaluaciones para actividades que presenten un riesgo elevado para los consumidores.

Aplicación

Las leyes de privacidad estatales no reconocen métodos de aplicación privada, pero los fiscales generales tienen la autoridad exclusiva para buscar sanciones contra entidades que no cumplan con estas leyes.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...