Los trabajadores desafían las herramientas de contratación de IA ‘ocultas’ en una demanda colectiva con importantes implicaciones regulatorias
Los trabajadores están cansados de las prácticas de contratación basadas en IA. Una nueva demanda colectiva presentada en California alega que los candidatos humanos están siendo perfilados injustamente por tecnologías de contratación de IA que «acechan en el fondo» para recopilar información «sensible y a menudo inexacta» sobre solicitantes de empleo «inocentes».
La demanda se dirige específicamente a una empresa de IA, argumentando que las herramientas utilizadas por esta deberían ser reguladas de la misma manera que las agencias de informes crediticios, según la Ley de Informe Justo de Crédito y leyes estatales basadas en ella.
Implicaciones amplias para el uso de IA en la contratación
Este caso podría tener implicaciones de gran alcance para el uso creciente de IA en la contratación. Según un analista, esta demanda representa un punto de inflexión que indica que la IA no solo está siendo examinada por sus funciones, sino también por sus métodos y si las personas son conscientes de que está ocurriendo.
Los demandantes alegan que fueron excluidos de empleos en varias ocasiones por empresas que utilizan herramientas de contratación basadas en IA. La denuncia sostiene que la empresa violó las leyes federales y estatales de informes de crédito y competencia desleal al recopilar datos sobre solicitantes y vender informes a empresas para decisiones de empleo.
Prácticas de contratación y tecnología de IA
La empresa en cuestión se presenta como «la mayor fuente de datos de talento que se auto-renueva en el mundo», incorporando más de 1.5 mil millones de puntos de datos globales. La demanda afirma que su tecnología analiza datos de recursos públicos, incluyendo sitios de carrera y bases de datos de currículos, así como perfiles en redes sociales y herramientas de seguimiento.
Los algoritmos de IA clasifican la «idoneidad» de un candidato en una escala numérica de 0 a 5, basándose en «conclusiones, inferencias y suposiciones» sobre su ajuste cultural y trayectoria profesional proyectada. Sin embargo, estos informes son «no revisables» y «en gran medida invisibles» para los candidatos, quienes no tienen la oportunidad de impugnar su contenido antes de que sean enviados a los gerentes de contratación.
Desafíos regulatorios y éticos
La demanda argumenta que este método de creación de informes viola los requisitos de la Ley de Informe Justo de Crédito, que define informes de consumidores como cualquier comunicación que incluya información sobre una persona para determinar su acceso a crédito y propósitos de empleo.
Se sugiere que las agencias deben divulgar sus prácticas, obtener certificaciones y proporcionar a los consumidores un mecanismo para revisar y corregir informes. La falta de transparencia en la toma de decisiones a gran escala puede causar daños, lo cual es el tipo de problema que la legislación estaba diseñada para abordar.
Conclusión
Esta demanda revela una «falla de gobernanza» y una «brecha fundamental de responsabilidad». Si los tribunales coinciden en que las evaluaciones de IA funcionan como informes de crédito, la contratación será empujada a un territorio regulado. Esto significa que las organizaciones deberán establecer claridad y reglas en torno a la notificación, transparencia y derechos de auditoría.
El futuro de la tecnología de contratación dependerá de la colaboración entre humanos y máquinas, gobernada desde el inicio.