Consideraciones clave sobre la inteligencia artificial en la contratación en Bulgaria y la UE

AI en el reclutamiento: consideraciones clave para empleadores en Bulgaria y la UE

La inteligencia artificial está moldeando cada vez más las prácticas de reclutamiento, transformando la forma en que las organizaciones evalúan y seleccionan candidatos. Las herramientas de IA ofrecen un enfoque basado en datos y eficiente para encontrar talento, lo que promete agilizar el proceso de contratación, reducir el sesgo humano y ayudar a las empresas a identificar candidatos de manera rápida y precisa.

Sin embargo, el uso creciente de la IA en el reclutamiento introduce desafíos, como el sesgo algorítmico, la transparencia y la protección de datos personales, que requieren consideración y destacan la importancia del cumplimiento regulatorio. La Ley de IA de la UE (Reglamento (UE) 2024/1020) establece estándares más estrictos, por lo que las organizaciones en Bulgaria y la UE deben equilibrar los beneficios del avance tecnológico con la equidad, la transparencia y el respeto por los derechos de los candidatos.

Regulaciones clave en el uso de IA para el reclutamiento

A medida que la IA se convierte en parte integral de varios procesos empresariales, incluido el reclutamiento, las organizaciones en Bulgaria y la UE deben navegar por un complejo panorama regulatorio. Dos regulaciones clave se aplican al uso de sistemas de IA en la contratación: la Ley de IA (Reglamento de la UE 2024/1020) y el Reglamento General de Protección de Datos (GDPR) (Reglamento de la UE 2016/679).

Los sistemas de IA destinados a reclutar o seleccionar candidatos se clasifican como «de alto riesgo» bajo la Ley de IA. Por lo tanto, su uso debe cumplir con estrictos requisitos de cumplimiento diseñados para salvaguardar la equidad, garantizar la transparencia y proteger los derechos fundamentales.

¿Quién es responsable?

Bajo la Ley de IA, las organizaciones que utilizan sistemas de IA (por ejemplo, empleadores y agencias de reclutamiento) se consideran generalmente «desplegadores». Sin embargo, pueden ser reclasificados como «proveedores» y estar sujetos a obligaciones más estrictas si:

  • colocan su nombre o marca comercial en un sistema de IA de alto riesgo que ya ha sido comercializado o puesto en servicio (a menos que un contrato asigne claramente estas responsabilidades en otro lugar);
  • realizan una modificación sustancial al sistema;
  • cambian el propósito previsto del sistema de IA.

Obligaciones clave de cumplimiento para los desplegadores

Los desplegadores de sistemas de IA de alto riesgo para el reclutamiento deben cumplir con un conjunto de obligaciones, que se alinean con los requisitos del GDPR para la toma de decisiones automatizadas y el perfilado:

1. Obligaciones de transparencia y notificación:

  • informar a los candidatos y empleados que están sujetos a un sistema de IA de alto riesgo antes de su implementación;
  • proporcionar información clara sobre el propósito, capacidades y limitaciones del sistema;
  • asegurar el cumplimiento de los requisitos de transparencia del GDPR, incluido el derecho a la información, el acceso y la impugnación de decisiones automatizadas.

2. Obligaciones de supervisión humana:

  • asignar personal capacitado con suficiente autoridad para supervisar el sistema de IA;
  • asegurar que puedan interpretar los resultados e intervenir o suspender el sistema si es necesario;
  • la supervisión debe ser activa e informada, no formalista.

3. Obligaciones de calidad de datos y mitigación de sesgos:

  • los datos de entrada deben ser relevantes, representativos y mitigar el sesgo en la etapa de implementación, lo que puede requerir auditorías internas o procedimientos de validación;
  • realizar auditorías de sesgo es recomendable para garantizar que los datos no conduzcan a resultados discriminatorios;
  • alinearse con los principios de minimización y precisión de datos del GDPR.

4. Obligaciones de medidas técnicas y organizativas:

  • utilizar el sistema solo de acuerdo con las instrucciones del proveedor (una violación de esto podría resultar en calificar al desplegador como proveedor);
  • implementar salvaguardias para prevenir el uso indebido o consecuencias no deseadas;
  • suspender la operación si el sistema representa un riesgo o falla, e informar al proveedor, distribuidor y autoridad de vigilancia del mercado correspondiente.

5. Obligaciones de registro y monitoreo:

  • mantener registros de las operaciones del sistema durante al menos seis meses (si los registros están bajo el control del desplegador);
  • monitorear continuamente el rendimiento para detectar anomalías o riesgos e informar a los proveedores;
  • cooperar con las autoridades de vigilancia del mercado y proporcionar documentación a solicitud.

6. Obligaciones de evaluación de impacto:

  • antes de su primer uso, realizar una evaluación de impacto sobre los derechos fundamentales como parte de la evaluación de impacto de protección de datos. El desplegador puede basarse en evaluaciones de impacto previamente realizadas o evaluaciones existentes llevadas a cabo por el proveedor.

7. Obligaciones de alfabetización y capacitación en IA:

  • tomar medidas para garantizar un nivel suficiente de alfabetización en IA entre el personal y otras personas que manejan la operación y el uso de los sistemas de IA. Todo el personal involucrado en las operaciones de IA debe recibir capacitación adecuada.

Respeto de los derechos de los candidatos bajo el GDPR

Los desplegadores deben respetar los derechos de los candidatos según el GDPR, especialmente los del Artículo 22, que otorga a los individuos protección contra decisiones basadas únicamente en procesamiento automatizado. Cuando tal procesamiento está permitido, se debe garantizar a los candidatos:

  • el derecho a la intervención humana;
  • el derecho a expresar su punto de vista;
  • el derecho a impugnar una decisión.

Estas salvaguardias son especialmente importantes en el reclutamiento, donde las decisiones impulsadas por IA pueden afectar significativamente las carreras y la vida de los individuos.

Los sistemas de IA de alto riesgo tienen el potencial de transformar el reclutamiento al agilizar procesos y apoyar decisiones mejores. Sin embargo, este potencial solo se puede realizar si las organizaciones aplican la tecnología de IA de manera responsable, de acuerdo con el GDPR y la Ley de IA. El cumplimiento no solo protege los derechos de los candidatos y reduce los riesgos legales, sino que también genera confianza en la contratación impulsada por IA.

More Insights

Nuevas Normas de Etiquetado de IA en China para Empresas

China ha implementado nuevas reglas sobre el etiquetado de contenido generado por IA, que requieren que dicho contenido esté claramente identificado al distribuirse en plataformas chinas. Las empresas...

Construyendo IA Segura y Ética en un Entorno Amenazante

Sam Peters, el Director de Producto de ISMS.online, explica cómo las marcas pueden construir modelos de IA seguros, éticos y centrados en el cumplimiento en el actual panorama de amenazas en...

Harmonización legal de la inteligencia artificial en AIPPI 2025

La Asociación Internacional para la Protección de la Propiedad Intelectual (AIPPI) se reunirá en Yokohama del 13 al 16 de septiembre con más de 2,700 participantes. Este año, se destacan temas clave...

Divergencias en la Regulación de la IA: Colorado y el Enfoque Federal

La ley de inteligencia artificial de Colorado (CAIA) se implementará el 30 de junio de 2026 y requiere que las empresas realicen evaluaciones de impacto para los sistemas de IA de alto riesgo...

Vigilancia Inteligente: Seguridad y Privacidad en Equilibrio

La vigilancia impulsada por IA aumenta la seguridad, pero también conlleva riesgos de sesgo y erosión de libertades civiles. La regulación es desigual a nivel mundial, con la necesidad de una...

IA Responsable en Finanzas: De la Teoría a la Práctica

La discusión global sobre la inteligencia artificial ha entrado en una nueva fase, centrada en cómo utilizar estas herramientas de manera responsable, especialmente en los servicios financieros donde...

Certificación para una IA confiable y sostenible

La certificación puede convertirse en una ventaja competitiva en la adopción de inteligencia artificial (IA) confiable y sostenible. A medida que la regulación avanza, las empresas que demuestran...