IA dans le recrutement : considérations clés pour les employeurs en Bulgarie et dans l’UE
L’intelligence artificielle (IA) façonne de plus en plus les pratiques de recrutement, transformant la manière dont les organisations évaluent et sélectionnent les candidats. Les outils d’IA offrent une approche basée sur les données et efficace pour trouver des talents, promettant de rationaliser le processus d’embauche, de réduire les biais humains et d’aider les entreprises à identifier rapidement et avec précision les candidats.
Cependant, l’utilisation croissante de l’IA dans le recrutement présente des défis, tels que le biais algorithmique, la transparence et la protection des données personnelles, qui nécessitent une attention particulière et soulignent l’importance de la conformité réglementaire. La loi sur l’IA de l’UE (Règlement (UE) 2024/1020) impose des normes plus strictes, ce qui oblige les organisations en Bulgarie et dans l’UE à équilibrer les avantages de l’avancement technologique avec l’équité, la transparence et le respect des droits des candidats.
Réglementation et responsabilités
Alors que l’IA devient intégrante à divers processus commerciaux, y compris le recrutement, les organisations en Bulgarie et dans l’UE doivent naviguer dans un paysage réglementaire complexe. Deux réglementations clés s’appliquent à l’utilisation des systèmes d’IA dans le recrutement : la loi sur l’IA (Règlement (UE) 2024/1020) et le Règlement général sur la protection des données (RGPD) (Règlement (UE) 2016/679).
Les systèmes d’IA destinés au recrutement ou à la sélection de candidats sont classés comme « à haut risque » selon la loi sur l’IA. Leur utilisation doit donc répondre à des exigences de conformité strictes conçues pour garantir l’équité, assurer la transparence et protéger les droits fondamentaux.
Obligations de conformité pour les déployeurs
Les déployeurs de systèmes d’IA à haut risque pour le recrutement doivent respecter un ensemble d’obligations qui s’alignent sur les exigences du RGPD en matière de prise de décision automatisée et de profilage :
- Obligations de transparence et de notification :
- Informer les candidats et les employés qu’ils sont soumis à un système d’IA à haut risque avant son déploiement ;
- Fournir des informations claires sur l’objectif, les capacités et les limitations du système ;
- Assurer la conformité avec les exigences de transparence du RGPD, y compris le droit à l’information, l’accès et la contestation des décisions automatisées.
- Obligations de supervision humaine :
- Assigner du personnel formé ayant une autorité suffisante pour superviser le système d’IA ;
- S’assurer qu’ils peuvent interpréter les résultats et intervenir ou suspendre le système si nécessaire ;
- La supervision doit être active et informée, plutôt que formaliste.
- Obligations en matière de qualité des données et de mitigation des biais :
- Les données d’entrée doivent être pertinentes, représentatives et atténuer les biais lors du déploiement, ce qui peut nécessiter des audits internes ou des procédures de validation ;
- Réaliser des audits de biais pour garantir que les données ne conduisent pas à des résultats discriminatoires ;
- Aligner avec les principes de minimisation et d’exactitude des données du RGPD.
- Obligations techniques et organisationnelles :
- Utiliser le système uniquement selon les instructions du fournisseur (une violation pourrait entraîner la reclassification du déployeur en tant que fournisseur) ;
- Mettre en œuvre des mesures de sécurité pour prévenir l’utilisation abusive ou les conséquences non intentionnelles ;
- Suspension de l’opération si le système pose un risque ou tombe en panne, et informer le fournisseur, le distributeur et l’autorité de surveillance du marché concernée.
- Obligations de tenue de registres et de surveillance :
- Maintenir des journaux des opérations du système pendant au moins six mois (si les journaux sont sous le contrôle du déployeur) ;
- Surveiller en continu les performances pour détecter les anomalies ou les risques et informer les fournisseurs ;
- Coopérer avec les autorités de surveillance du marché et fournir la documentation sur demande.
- Obligations d’évaluation d’impact :
- Avant la première utilisation, effectuer une évaluation d’impact sur les droits fondamentaux dans le cadre de l’évaluation d’impact sur la protection des données. Le déployeur peut s’appuyer sur des évaluations d’impact sur les droits fondamentaux déjà réalisées ou sur des évaluations existantes effectuées par le fournisseur.
- Obligations de formation et de sensibilisation à l’IA :
- Prendre des mesures pour garantir un niveau suffisant de sensibilisation à l’IA parmi le personnel et les autres personnes impliquées dans l’opération et l’utilisation des systèmes d’IA. Tout le personnel impliqué dans les opérations d’IA doit recevoir une formation adéquate.
Respect des droits des candidats en vertu du RGPD
Les déployeurs doivent respecter les droits des candidats en vertu du RGPD, notamment ceux de l’article 22, qui accorde aux individus une protection contre les décisions basées uniquement sur un traitement automatisé. Lorsque ce traitement est autorisé, les candidats doivent bénéficier des garanties suivantes :
- le droit à une intervention humaine ;
- le droit d’exprimer leur point de vue ;
- le droit de contester une décision.
Ces garanties sont particulièrement importantes dans le recrutement, où les décisions prises par l’IA peuvent avoir des conséquences significatives sur les carrières et les moyens de subsistance des individus.
Les systèmes d’IA à haut risque ont le potentiel de transformer le recrutement en rationalisant les processus et en soutenant de meilleures décisions. Cependant, ce potentiel ne peut être réalisé que si les organisations appliquent la technologie de l’IA de manière responsable, conformément au RGPD et à la loi sur l’IA. La conformité protège non seulement les droits des candidats et réduit les risques juridiques, mais elle renforce également la confiance dans le recrutement alimenté par l’IA.