Transparence et conformité : Les défis de l’IA en ressources humaines

A blueprint

Transparence, bonnes données et documentation : Comment les RH peuvent naviguer dans la loi sur l’IA de l’UE

Avec l’inclusion par la loi sur l’intelligence artificielle (IA) de l’UE des systèmes d’IA dans le milieu de travail parmi ses utilisations interdites, les départements des ressources humaines (RH) sont désormais confrontés à la nécessité de réexaminer leurs diverses applications d’IA pour répondre aux exigences de conformité.

L’IA utilisée dans l’emploi et le milieu de travail est considérée comme « à haut risque » selon la loi sur l’IA et est donc soumise à des stipulations légales si elle peut affecter la santé, la sécurité ou l’emploi d’une personne. Son utilisation dans les systèmes de reconnaissance émotionnelle au travail est prohibée.

Toutes les déploiements d’IA axés sur les RH ne sont pas considérés comme à haut risque. Cependant, pour ceux qui se demandent comment faire cette distinction, il convient de considérer comment les régulateurs ont déjà abordé l’IA à travers les réglementations existantes, notamment le Règlement général sur la protection des données (RGPD).

Obligations des régulateurs

Les régulateurs de protection des données prennent déjà très au sérieux l’obligation de réaliser des évaluations d’impact sur la protection des données (EIPD) dans le contexte des systèmes d’IA. Cela a été souligné lors d’une récente conférence consacrée à la gouvernance de l’IA.

Les acteurs de l’IA se préparent à l’entrée en vigueur de cette réglementation phare, qui en est encore à ses débuts, avec de nombreuses inconnues sur la manière dont certains aspects se dérouleront. Les responsables technologiques ont exhorté les participants à se préparer à l’incertitude, tout en notant que les principes de protection des données en vigueur dans l’UE peuvent fournir des orientations.

Pratiques de transparence des données

Les pratiques de transparence des données standard, y compris la documentation appropriée et la limitation des finalités, s’appliquent aux cas d’utilisation de l’IA. Avant cela, il est essentiel de répondre à une question centrale :

« Quel problème essayez-vous de résoudre en utilisant l’IA ? »

Une fois cette question clarifiée, il devient possible de revoir de manière holistique ce qui doit être mis en place pour assurer la transparence tout au long de la chaîne, garantissant ainsi des réponses aux clients et à leurs employés.

Importance de la transparence

Être ouvert sur les raisons pour lesquelles des données sont collectées et leur utilisation permet d’éviter de nombreux problèmes potentiels. La transparence initiale aide à établir un cas pour les intérêts légitimes, même dans le cadre d’une utilisation de l’IA à faible risque. Cette clarté soutient également le concept de consentement librement donné pour la collecte de données, un pilier du RGPD.

Il existe des précédents à cet égard. Un tribunal judiciaire a ordonné à une entreprise de revenir à la planche à dessin concernant le déploiement d’outils d’IA, car elle n’avait pas correctement consulté le Comité social et économique avant de procéder.

Comprendre les fournisseurs d’IA

La transparence ne s’arrête pas à votre institution ; il est également nécessaire d’avoir une compréhension approfondie de l’opération de votre fournisseur, car de nombreux départements RH sont susceptibles d’avoir acquis un produit tiers. Il est crucial de comprendre non seulement ce que fait le fournisseur, mais aussi ce que fait sa chaîne d’approvisionnement.

Pensée sur l’anonymisation

La suppression des caractéristiques identifiables des données d’entraînement d’un modèle d’IA a été considérée comme un moyen d’assurer la confidentialité et la protection des données. Cependant, la manière dont cela est réalisé peut laisser place à une réidentification, ouvrant ainsi le traitement à un examen minutieux.

Il est donc essentiel de réfléchir attentivement à la véritable anonymisation des données. Les entreprises doivent s’assurer que les données utilisées dans l’IA restent confidentielles pour les autres clients et employés et être sceptiques à l’égard des affirmations des fournisseurs concernant des informations non traçables.

Documentation et justification

Après avoir déterminé si une utilisation particulière de l’IA est à haut risque et si les données d’entraînement sont suffisamment protégées, les départements RH doivent établir un cas clair quant à la manière dont les décisions relatives à l’utilisation d’une application ont été prises. Fournir une explication rétroactive n’est pas suffisant ; des documents contemporains doivent être disponibles pour justifier le raisonnement.

La loi sur l’IA exige également que les systèmes à haut risque aient une documentation sur leur fonctionnement et les risques qu’ils peuvent poser, avec des exigences d’informations régulièrement mises à jour.

Les EIPD sont les meilleurs moyens de soutenir un cas d’utilisation, car elles aident les régulateurs à comprendre toutes les facettes du processus décisionnel.

En somme, la documentation autour de l’absence de nécessité d’une EIPD est également importante, car toutes les utilisations de l’IA en RH ne peuvent pas répondre au seuil de risque élevé.

Articles

Un législateur de l’Utah à la tête d’une task force nationale sur l’IA

Un législateur de l'Utah a récemment été choisi pour diriger un groupe de travail national afin d'aider à orienter les politiques de l'intelligence artificielle au niveau des États. Le représentant...

La loi texane sur l’intelligence artificielle : un nouveau cadre réglementaire

Le gouverneur du Texas a signé la Texas Responsible Artificial Intelligence Governance Act (TRAIGA) en vertu de laquelle le Texas devient le deuxième État à adopter une réglementation complète sur...

La loi sur l’IA de l’UE entre en vigueur : ce qu’il faut savoir

L'Union européenne a mis en œuvre sa loi sur l'IA, qui introduit des classifications de risque pour les modèles d'intelligence artificielle. Les modèles d'IA présentant des risques inacceptables, tels...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

Risques de conformité liés à l’intégration de l’IA

L'intelligence artificielle devient un élément essentiel des fonctions de conformité des entreprises, mais son intégration présente également des risques réglementaires et opérationnels. Les...

Gouvernance de l’IA : un défi urgent pour les entreprises

Selon une nouvelle recherche, 93 % des entreprises au Royaume-Uni utilisent aujourd'hui l'IA, mais la plupart manquent de cadres pour gérer ses risques. Seul sept pour cent ont intégré des cadres de...

Gouvernance des données : Les enjeux de l’Acte européen sur l’IA

La Loi sur l'intelligence artificielle de l'Union européenne propose un cadre pour réglementer l'IA, en particulier pour les systèmes à "haut risque". L'article 10 se concentre sur les données et la...

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...