Regulación del Uso de IA en Contrataciones: Desafíos y Estrategias

Esfuerzos Estatales para Regular la Contratación de IA Tras la Oposición de Trump

Los legisladores estatales están estrategizando cómo lograr la aprobación de proyectos de ley que regulen el uso de la inteligencia artificial (IA) en las decisiones de empleo, a pesar de la oposición de la industria tecnológica y la administración Trump.

Medidas Propuestas

Desde Nueva York hasta Texas, se han impulsado medidas que van desde requerir a los empleadores mitigar el potencial sesgo causado por las herramientas de contratación basadas en IA, hasta la obligación de divulgación y apelaciones de decisiones generadas por IA para los solicitantes de empleo.

A pesar de la resistencia de una industria tecnológica bien financiada que ha dejado de lado algunas legislaciones, el movimiento por la regulación se mantiene fuerte, aunque los proyectos de ley se han reducido en alcance, según legisladores de varios estados.

“No estoy intimidada, pero también debemos ser prácticos”, dijo la delegada estatal de Virginia, Michelle Maldonado, cuyo proyecto de ley sobre IA fue vetado este año por el gobernador Glenn Youngkin.

Plan de Acción de Trump

El expresidente Donald Trump lanzó un plan de acción sobre IA en julio que incluía amenazas de desfinanciamiento federal y la posible preempción por parte de la Comisión Federal de Comunicaciones para las leyes estatales de IA que la administración considere excesivamente restrictivas.

El Senado también consideró seriamente, pero finalmente rechazó, un lenguaje legislativo este verano que prohibiría las leyes estatales que regulan la IA.

“Esto va a requerir que pensemos en un enfoque diferente”, sugirió Maldonado, sugiriendo que se centre la legislación en la transparencia y las divulgaciones.

Ejemplos de Regulación

Colorado aprobó la ley de sesgo de IA más amplia del país hasta la fecha, pero los legisladores votaron en agosto para dilatar su entrada en vigor y tratar de revisarla.

El senador de Connecticut, James Maroney, mencionó que incluso los legisladores de estados azules que intentaron imitar la medida de Colorado podrían estar listos para reducir su enfoque en 2026, ya sea a través de restricciones específicas de la industria o un enfoque exclusivo en la transparencia.

Este último requeriría que los empleadores divulguen a los solicitantes de empleo y a los empleados cuándo y cómo están utilizando herramientas de IA, pero se detendría antes de imponer auditorías obligatorias de sesgo o planes de gestión de riesgos detallados.

“El derecho a saber si se está utilizando IA para tomar una decisión importante sobre tu vida”, dijo Maroney.

Detalles sobre la Transparencia

Aun si los legisladores estatales adoptan un enfoque de transparencia, los detalles pueden variar ampliamente.

Una ley de Illinois que entrará en vigor el 1 de enero de 2026, exige a los empleadores dar aviso a los trabajadores cuando utilicen IA para decisiones de empleo, pero no ofrece detalles sobre qué debe incluir el aviso.

En contraste, los legisladores de Colorado consideraron en agosto un Acta de Luz de IA para reemplazar su ley de sesgo de IA más amplia. Esta habría requerido que las empresas notificaran a los individuos hasta 20 factores que las herramientas de IA consideraron antes de rechazarles, además de la oportunidad de corregir datos inexactos.

La industria tecnológica se opuso a la ley de Colorado, incluyendo el lenguaje del proyecto que buscaba imponer responsabilidad conjunta por reclamaciones de discriminación tanto a los desarrolladores de IA como a las empresas que utilizan las herramientas.

Perspectivas Futuras

La representante de Colorado, Brianna Titone, coautora de la ley retrasada hasta junio de 2026, todavía ve esperanza para una legislación que obligue a los desarrolladores de tecnología a compartir la responsabilidad por reclamaciones de discriminación, en lugar de asignarla solo a las empresas que utilizan las herramientas para aumentar la eficiencia en la contratación.

“Todavía me niegan mi trabajo. Todavía me niegan mi atención médica, mi póliza de seguro o lo que sea, pero no tengo recurso”, dijo.

Incluso en California, que a menudo lidera la nación en legislación pro-trabajadores, los partidarios de los proyectos de ley de IA que afectan el empleo han tenido éxitos mixtos en 2025. Los legisladores estatales aprobaron un proyecto de ley que se dirige a la gestión de la fuerza laboral impulsada por IA, mientras que dejaron morir una propuesta integral similar a la de Colorado centrada en la discriminación.

Desafíos de Cumplimiento

En ausencia de acción desde Washington, los diferentes requisitos estatales a medida que evolucionan pueden dificultar el cumplimiento.

Algunos estados están presionando a los empleadores a tomar medidas como pruebas de sesgo, mantener documentación y otros controles del sistema, según Lauren Hicks, socia de Ogletree Deakins.

En cambio, algunos estados son “un poco más orientados al proceso”, centrándose más en la transparencia, la privacidad de datos o las obligaciones de aviso sobre la toma de decisiones automatizadas, o ofreciendo derechos de apelación u opción de exclusión.

“Los empleadores ahora tienen la obligación de profundizar y desarrollar un entendimiento profundo del software que están utilizando”, agregó Hicks. “Eso es extremadamente crítico ahora, para que puedan trabajar para cumplir con estas obligaciones de cumplimiento que variarán de estado a estado.”

Amenaza de Preempción

Cómo abordará el Congreso la preempción en futuras legislaciones sobre inteligencia artificial es aún incierto, creando riesgo para los estados que avanzan en protecciones de IA.

El plan de acción de Trump instruye a las agencias federales a negar financiamiento relacionado con IA a los estados cuyas leyes socaven el propósito de los fondos, como promover el crecimiento de la industria de IA.

Sin embargo, el plan no aclara qué tipos de leyes estatales son propensas a un examen federal, según Mackenzie Arnold, directora de política de EE. UU. en el Instituto de Derecho y IA.

“Condicionar las subvenciones federales al ‘clima regulatorio’ de IA de un estado es inherentemente maleable y, por lo tanto, difícil de predecir”, dijo.

Para algunas leyes laborales, como la Ley de Normas Laborales Justas, las reglas federales actúan como un suelo, y los estados pueden establecer estándares más altos.

Pero en otras áreas, la Corte Suprema de EE. UU. ha reconocido la primacía de la ley federal, preemptando estatutos estatales que regulan conductas cubiertas por la Ley Nacional de Relaciones Laborales, por ejemplo.

Maldonado, quien planea reintroducir su legislación en la próxima sesión, no ve el riesgo en avanzar mientras el Congreso figura cómo se intersecarán las leyes de IA federales y estatales.

“Debemos poner algo en su lugar, y si es preemptado, entonces está bien”, dijo, “pero lo más probable es que no lo sea.”

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...