AI en el reclutamiento: consideraciones clave para empleadores en Bulgaria y la UE
La inteligencia artificial está moldeando cada vez más las prácticas de reclutamiento, transformando la forma en que las organizaciones evalúan y seleccionan candidatos. Las herramientas de IA ofrecen un enfoque basado en datos y eficiente para encontrar talento, lo que promete agilizar el proceso de contratación, reducir el sesgo humano y ayudar a las empresas a identificar candidatos de manera rápida y precisa.
Sin embargo, el uso creciente de la IA en el reclutamiento introduce desafíos, como el sesgo algorítmico, la transparencia y la protección de datos personales, que requieren consideración y destacan la importancia del cumplimiento regulatorio. La Ley de IA de la UE (Reglamento (UE) 2024/1020) establece estándares más estrictos, por lo que las organizaciones en Bulgaria y la UE deben equilibrar los beneficios del avance tecnológico con la equidad, la transparencia y el respeto por los derechos de los candidatos.
Regulaciones clave en el uso de IA para el reclutamiento
A medida que la IA se convierte en parte integral de varios procesos empresariales, incluido el reclutamiento, las organizaciones en Bulgaria y la UE deben navegar por un complejo panorama regulatorio. Dos regulaciones clave se aplican al uso de sistemas de IA en la contratación: la Ley de IA (Reglamento de la UE 2024/1020) y el Reglamento General de Protección de Datos (GDPR) (Reglamento de la UE 2016/679).
Los sistemas de IA destinados a reclutar o seleccionar candidatos se clasifican como «de alto riesgo» bajo la Ley de IA. Por lo tanto, su uso debe cumplir con estrictos requisitos de cumplimiento diseñados para salvaguardar la equidad, garantizar la transparencia y proteger los derechos fundamentales.
¿Quién es responsable?
Bajo la Ley de IA, las organizaciones que utilizan sistemas de IA (por ejemplo, empleadores y agencias de reclutamiento) se consideran generalmente «desplegadores». Sin embargo, pueden ser reclasificados como «proveedores» y estar sujetos a obligaciones más estrictas si:
- colocan su nombre o marca comercial en un sistema de IA de alto riesgo que ya ha sido comercializado o puesto en servicio (a menos que un contrato asigne claramente estas responsabilidades en otro lugar);
- realizan una modificación sustancial al sistema;
- cambian el propósito previsto del sistema de IA.
Obligaciones clave de cumplimiento para los desplegadores
Los desplegadores de sistemas de IA de alto riesgo para el reclutamiento deben cumplir con un conjunto de obligaciones, que se alinean con los requisitos del GDPR para la toma de decisiones automatizadas y el perfilado:
1. Obligaciones de transparencia y notificación:
- informar a los candidatos y empleados que están sujetos a un sistema de IA de alto riesgo antes de su implementación;
- proporcionar información clara sobre el propósito, capacidades y limitaciones del sistema;
- asegurar el cumplimiento de los requisitos de transparencia del GDPR, incluido el derecho a la información, el acceso y la impugnación de decisiones automatizadas.
2. Obligaciones de supervisión humana:
- asignar personal capacitado con suficiente autoridad para supervisar el sistema de IA;
- asegurar que puedan interpretar los resultados e intervenir o suspender el sistema si es necesario;
- la supervisión debe ser activa e informada, no formalista.
3. Obligaciones de calidad de datos y mitigación de sesgos:
- los datos de entrada deben ser relevantes, representativos y mitigar el sesgo en la etapa de implementación, lo que puede requerir auditorías internas o procedimientos de validación;
- realizar auditorías de sesgo es recomendable para garantizar que los datos no conduzcan a resultados discriminatorios;
- alinearse con los principios de minimización y precisión de datos del GDPR.
4. Obligaciones de medidas técnicas y organizativas:
- utilizar el sistema solo de acuerdo con las instrucciones del proveedor (una violación de esto podría resultar en calificar al desplegador como proveedor);
- implementar salvaguardias para prevenir el uso indebido o consecuencias no deseadas;
- suspender la operación si el sistema representa un riesgo o falla, e informar al proveedor, distribuidor y autoridad de vigilancia del mercado correspondiente.
5. Obligaciones de registro y monitoreo:
- mantener registros de las operaciones del sistema durante al menos seis meses (si los registros están bajo el control del desplegador);
- monitorear continuamente el rendimiento para detectar anomalías o riesgos e informar a los proveedores;
- cooperar con las autoridades de vigilancia del mercado y proporcionar documentación a solicitud.
6. Obligaciones de evaluación de impacto:
- antes de su primer uso, realizar una evaluación de impacto sobre los derechos fundamentales como parte de la evaluación de impacto de protección de datos. El desplegador puede basarse en evaluaciones de impacto previamente realizadas o evaluaciones existentes llevadas a cabo por el proveedor.
7. Obligaciones de alfabetización y capacitación en IA:
- tomar medidas para garantizar un nivel suficiente de alfabetización en IA entre el personal y otras personas que manejan la operación y el uso de los sistemas de IA. Todo el personal involucrado en las operaciones de IA debe recibir capacitación adecuada.
Respeto de los derechos de los candidatos bajo el GDPR
Los desplegadores deben respetar los derechos de los candidatos según el GDPR, especialmente los del Artículo 22, que otorga a los individuos protección contra decisiones basadas únicamente en procesamiento automatizado. Cuando tal procesamiento está permitido, se debe garantizar a los candidatos:
- el derecho a la intervención humana;
- el derecho a expresar su punto de vista;
- el derecho a impugnar una decisión.
Estas salvaguardias son especialmente importantes en el reclutamiento, donde las decisiones impulsadas por IA pueden afectar significativamente las carreras y la vida de los individuos.
Los sistemas de IA de alto riesgo tienen el potencial de transformar el reclutamiento al agilizar procesos y apoyar decisiones mejores. Sin embargo, este potencial solo se puede realizar si las organizaciones aplican la tecnología de IA de manera responsable, de acuerdo con el GDPR y la Ley de IA. El cumplimiento no solo protege los derechos de los candidatos y reduce los riesgos legales, sino que también genera confianza en la contratación impulsada por IA.