Desafíos legales del uso de IA en el proceso de contratación

Desafíos que enfrentan los empleadores al utilizar aplicaciones de IA

En el contexto actual, la inteligencia artificial (IA) se ha convertido en una herramienta esencial en el proceso de reclutamiento, permitiendo a los empleadores automatizar casi todos los aspectos de la selección de candidatos, desde la creación de anuncios de trabajo hasta la evaluación de documentos de solicitud y la incorporación de nuevos empleados. Sin embargo, el uso de estas herramientas plantea desafíos significativos que deben ser considerados.

Requisitos legales para el uso de herramientas de IA en el reclutamiento

Los dos pilares fundamentales del marco legal son el EU AI Act y el Reglamento General de Protección de Datos (GDPR).

El EU AI Act establece un marco legal vinculante a nivel europeo que también es relevante para los empleadores que utilizan aplicaciones de IA. A continuación, se destacan los aspectos más relevantes:

  • Sistemas de IA de alto riesgo: Los sistemas utilizados para seleccionar o evaluar a los solicitantes se consideran de alto riesgo y, por lo tanto, están sujetos a regulaciones especiales. Los empleadores deben asegurarse de que dichos sistemas se utilicen correctamente y sean supervisados por personal calificado.
  • Prácticas prohibidas: Se prohíbe expresamente el uso de herramientas de IA para ciertas prácticas, como aquellas que reconocen y evalúan emociones, incluyendo sistemas que analizan señales no verbales como expresiones faciales o gestos en entrevistas por video.

Además, el GDPR es relevante para el uso de herramientas de IA en el proceso de selección. El procesamiento de datos personales debe basarse en una base legal y ser específico para un propósito. En particular, el Artículo 22 del GDPR establece que las personas tienen derecho a no ser objeto de una decisión basada únicamente en un procesamiento automatizado que produzca efectos jurídicos sobre ellas o las afecte significativamente.

Esto resalta la necesidad de supervisión humana, garantizando que se consideren adecuadamente las circunstancias individuales de un solicitante durante el proceso de selección. Los empleadores deben usar sistemas de IA que puedan preseleccionar y evaluar solicitudes, pero la decisión final de rechazo o contratación siempre debe ser tomada por un ser humano.

Las violaciones del EU AI Act y del GDPR pueden resultar en multas elevadas. Las infracciones del EU AI Act pueden ser castigadas con multas de hasta 15 millones de euros o el 3% de la facturación anual global, mientras que las violaciones del GDPR pueden conllevar multas aún mayores.

Posible discriminación a través de aplicaciones de IA

Los empleadores deben ser conscientes de que incluso las aplicaciones supuestamente objetivas pueden llevar a decisiones discriminatorias al reproducir o reforzar sesgos inconscientes, especialmente si los datos de entrenamiento no son representativos. Por ejemplo, si las mujeres en posiciones de liderazgo están subrepresentadas en los datos de entrenamiento, la herramienta de IA podría considerar esto como la norma y desventajar sistemáticamente a las solicitantes femeninas al seleccionar candidatos para posiciones senior.

La discriminación por parte de la IA a menudo es difícil de detectar, ya que variables proxy, como el lugar de residencia o el nivel educativo, pueden usarse para inferir indirectamente características sensibles como el género o el origen étnico. Si una decisión de contratación o promoción se basa en una recomendación que depende de tales suposiciones discriminatorias, esto constituirá una violación de la Ley General de Igualdad de Trato (AGG). En tales casos, el solicitante tendrá derecho a una compensación de acuerdo con la Sección 15 (2) de la AGG.

Conclusión

El uso de herramientas de IA en el proceso de selección permite a las empresas optimizar y agilizar sus procesos. Sin embargo, los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no discriminatorios y cumplan con las regulaciones de protección de datos. Realizar verificaciones regulares del sistema, obtener asesoría legal y establecer mecanismos de control humano son esenciales para evitar problemas legales y aprovechar al máximo las ventajas de la tecnología.

More Insights

Guía Práctica de IA Responsable para Desarrolladores .NET

La era de la Inteligencia Artificial (IA) está sucediendo ahora, y aunque ofrece velocidad y precisión en sectores como la banca y la salud, plantea desafíos éticos sobre su confianza. Para abordar...

Ley de Transparencia en IA: Un Hito en California

Los legisladores de California han hecho historia al aprobar una ley pionera sobre la transparencia en inteligencia artificial que se centra en los "modelos fronterizos", los sistemas de inteligencia...

Desafíos legales del uso de IA en el proceso de contratación

El uso de herramientas de IA en el proceso de solicitud permite a las empresas optimizar sus procesos, pero los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no...

Los Cuatro Pilares de los Guardrails en GenAI: Construyendo Sistemas de IA Responsables

A medida que la inteligencia artificial generativa transforma cómo operan las empresas, es fundamental implementar sistemas de guardrails para asegurar un despliegue responsable. Estos guardrails, que...

IA Responsable para Mercados Emergentes: Inclusión desde el Diseño

La inteligencia artificial está transformando el mundo, pero los beneficios no llegan a todos de manera equitativa. Es fundamental diseñar sistemas de IA inclusivos que aborden las barreras de...