Transparence, bonnes données et documentation : Comment les RH peuvent naviguer dans la loi sur l’IA de l’UE
Avec l’inclusion par la loi sur l’intelligence artificielle (IA) de l’UE des systèmes d’IA dans le milieu de travail parmi ses utilisations interdites, les départements des ressources humaines (RH) sont désormais confrontés à la nécessité de réexaminer leurs diverses applications d’IA pour répondre aux exigences de conformité.
L’IA utilisée dans l’emploi et le milieu de travail est considérée comme « à haut risque » selon la loi sur l’IA et est donc soumise à des stipulations légales si elle peut affecter la santé, la sécurité ou l’emploi d’une personne. Son utilisation dans les systèmes de reconnaissance émotionnelle au travail est prohibée.
Toutes les déploiements d’IA axés sur les RH ne sont pas considérés comme à haut risque. Cependant, pour ceux qui se demandent comment faire cette distinction, il convient de considérer comment les régulateurs ont déjà abordé l’IA à travers les réglementations existantes, notamment le Règlement général sur la protection des données (RGPD).
Obligations des régulateurs
Les régulateurs de protection des données prennent déjà très au sérieux l’obligation de réaliser des évaluations d’impact sur la protection des données (EIPD) dans le contexte des systèmes d’IA. Cela a été souligné lors d’une récente conférence consacrée à la gouvernance de l’IA.
Les acteurs de l’IA se préparent à l’entrée en vigueur de cette réglementation phare, qui en est encore à ses débuts, avec de nombreuses inconnues sur la manière dont certains aspects se dérouleront. Les responsables technologiques ont exhorté les participants à se préparer à l’incertitude, tout en notant que les principes de protection des données en vigueur dans l’UE peuvent fournir des orientations.
Pratiques de transparence des données
Les pratiques de transparence des données standard, y compris la documentation appropriée et la limitation des finalités, s’appliquent aux cas d’utilisation de l’IA. Avant cela, il est essentiel de répondre à une question centrale :
« Quel problème essayez-vous de résoudre en utilisant l’IA ? »
Une fois cette question clarifiée, il devient possible de revoir de manière holistique ce qui doit être mis en place pour assurer la transparence tout au long de la chaîne, garantissant ainsi des réponses aux clients et à leurs employés.
Importance de la transparence
Être ouvert sur les raisons pour lesquelles des données sont collectées et leur utilisation permet d’éviter de nombreux problèmes potentiels. La transparence initiale aide à établir un cas pour les intérêts légitimes, même dans le cadre d’une utilisation de l’IA à faible risque. Cette clarté soutient également le concept de consentement librement donné pour la collecte de données, un pilier du RGPD.
Il existe des précédents à cet égard. Un tribunal judiciaire a ordonné à une entreprise de revenir à la planche à dessin concernant le déploiement d’outils d’IA, car elle n’avait pas correctement consulté le Comité social et économique avant de procéder.
Comprendre les fournisseurs d’IA
La transparence ne s’arrête pas à votre institution ; il est également nécessaire d’avoir une compréhension approfondie de l’opération de votre fournisseur, car de nombreux départements RH sont susceptibles d’avoir acquis un produit tiers. Il est crucial de comprendre non seulement ce que fait le fournisseur, mais aussi ce que fait sa chaîne d’approvisionnement.
Pensée sur l’anonymisation
La suppression des caractéristiques identifiables des données d’entraînement d’un modèle d’IA a été considérée comme un moyen d’assurer la confidentialité et la protection des données. Cependant, la manière dont cela est réalisé peut laisser place à une réidentification, ouvrant ainsi le traitement à un examen minutieux.
Il est donc essentiel de réfléchir attentivement à la véritable anonymisation des données. Les entreprises doivent s’assurer que les données utilisées dans l’IA restent confidentielles pour les autres clients et employés et être sceptiques à l’égard des affirmations des fournisseurs concernant des informations non traçables.
Documentation et justification
Après avoir déterminé si une utilisation particulière de l’IA est à haut risque et si les données d’entraînement sont suffisamment protégées, les départements RH doivent établir un cas clair quant à la manière dont les décisions relatives à l’utilisation d’une application ont été prises. Fournir une explication rétroactive n’est pas suffisant ; des documents contemporains doivent être disponibles pour justifier le raisonnement.
La loi sur l’IA exige également que les systèmes à haut risque aient une documentation sur leur fonctionnement et les risques qu’ils peuvent poser, avec des exigences d’informations régulièrement mises à jour.
Les EIPD sont les meilleurs moyens de soutenir un cas d’utilisation, car elles aident les régulateurs à comprendre toutes les facettes du processus décisionnel.
En somme, la documentation autour de l’absence de nécessité d’une EIPD est également importante, car toutes les utilisations de l’IA en RH ne peuvent pas répondre au seuil de risque élevé.