Desafíos legales del uso de IA en el proceso de contratación

Desafíos que enfrentan los empleadores al utilizar aplicaciones de IA

En el contexto actual, la inteligencia artificial (IA) se ha convertido en una herramienta esencial en el proceso de reclutamiento, permitiendo a los empleadores automatizar casi todos los aspectos de la selección de candidatos, desde la creación de anuncios de trabajo hasta la evaluación de documentos de solicitud y la incorporación de nuevos empleados. Sin embargo, el uso de estas herramientas plantea desafíos significativos que deben ser considerados.

Requisitos legales para el uso de herramientas de IA en el reclutamiento

Los dos pilares fundamentales del marco legal son el EU AI Act y el Reglamento General de Protección de Datos (GDPR).

El EU AI Act establece un marco legal vinculante a nivel europeo que también es relevante para los empleadores que utilizan aplicaciones de IA. A continuación, se destacan los aspectos más relevantes:

  • Sistemas de IA de alto riesgo: Los sistemas utilizados para seleccionar o evaluar a los solicitantes se consideran de alto riesgo y, por lo tanto, están sujetos a regulaciones especiales. Los empleadores deben asegurarse de que dichos sistemas se utilicen correctamente y sean supervisados por personal calificado.
  • Prácticas prohibidas: Se prohíbe expresamente el uso de herramientas de IA para ciertas prácticas, como aquellas que reconocen y evalúan emociones, incluyendo sistemas que analizan señales no verbales como expresiones faciales o gestos en entrevistas por video.

Además, el GDPR es relevante para el uso de herramientas de IA en el proceso de selección. El procesamiento de datos personales debe basarse en una base legal y ser específico para un propósito. En particular, el Artículo 22 del GDPR establece que las personas tienen derecho a no ser objeto de una decisión basada únicamente en un procesamiento automatizado que produzca efectos jurídicos sobre ellas o las afecte significativamente.

Esto resalta la necesidad de supervisión humana, garantizando que se consideren adecuadamente las circunstancias individuales de un solicitante durante el proceso de selección. Los empleadores deben usar sistemas de IA que puedan preseleccionar y evaluar solicitudes, pero la decisión final de rechazo o contratación siempre debe ser tomada por un ser humano.

Las violaciones del EU AI Act y del GDPR pueden resultar en multas elevadas. Las infracciones del EU AI Act pueden ser castigadas con multas de hasta 15 millones de euros o el 3% de la facturación anual global, mientras que las violaciones del GDPR pueden conllevar multas aún mayores.

Posible discriminación a través de aplicaciones de IA

Los empleadores deben ser conscientes de que incluso las aplicaciones supuestamente objetivas pueden llevar a decisiones discriminatorias al reproducir o reforzar sesgos inconscientes, especialmente si los datos de entrenamiento no son representativos. Por ejemplo, si las mujeres en posiciones de liderazgo están subrepresentadas en los datos de entrenamiento, la herramienta de IA podría considerar esto como la norma y desventajar sistemáticamente a las solicitantes femeninas al seleccionar candidatos para posiciones senior.

La discriminación por parte de la IA a menudo es difícil de detectar, ya que variables proxy, como el lugar de residencia o el nivel educativo, pueden usarse para inferir indirectamente características sensibles como el género o el origen étnico. Si una decisión de contratación o promoción se basa en una recomendación que depende de tales suposiciones discriminatorias, esto constituirá una violación de la Ley General de Igualdad de Trato (AGG). En tales casos, el solicitante tendrá derecho a una compensación de acuerdo con la Sección 15 (2) de la AGG.

Conclusión

El uso de herramientas de IA en el proceso de selección permite a las empresas optimizar y agilizar sus procesos. Sin embargo, los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no discriminatorios y cumplan con las regulaciones de protección de datos. Realizar verificaciones regulares del sistema, obtener asesoría legal y establecer mecanismos de control humano son esenciales para evitar problemas legales y aprovechar al máximo las ventajas de la tecnología.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...