AI dans les Ressources Humaines : Ce à Quoi S’Attendre
Plusieurs projets de loi en attente au Congrès, ainsi que d’autres législations attendues au Royaume-Uni et dans l’Union européenne, visent à réglementer la technologie de l’IA et à fournir un cadre pour la gouvernance future.
Comme la plupart des commentateurs le supposent, ceci n’est que le début du développement de l’IA. L’IA va s’étendre, tant en portée qu’en capacité, et les lois régissant ces systèmes vont évoluer. Pour cette raison, il est important que les employeurs comprennent non seulement le paysage juridique actuel, mais aussi qu’ils gardent un œil sur les développements juridiques anticipés. Cet article explore brièvement certains de ces développements anticipés aux États-Unis, ainsi qu’au Royaume-Uni et dans l’UE.
Ce à Quoi S’Attendre – États-Unis
Actuellement, il n’existe pas de loi fédérale régissant l’utilisation de l’IA sur le lieu de travail. Cependant, plusieurs projets de loi sont en attente au Congrès qui, s’ils sont adoptés, changeraient cela.
Le projet de loi du Sénat 2419, intitulé « No Robot Bosses Act », proposé à l’été 2023, est actuellement en attente dans le Comité sénatorial de la santé, de l’éducation, du travail et des pensions. Un projet de loi identique a été introduit à la Chambre des représentants en mars dernier et est actuellement examiné par plusieurs comités de la Chambre.
Dans sa forme actuelle, le No Robot Bosses Act interdirait aux employeurs de s’appuyer exclusivement sur des systèmes de décision automatisés, y compris l’IA, pour prendre des décisions d’emploi. Les employeurs devraient fournir une supervision humaine indépendante des résultats de l’IA avant de les utiliser comme partie d’une décision d’emploi. De plus, la loi exigerait que les employeurs réalisent des audits préalables au déploiement des outils d’IA pour détecter des biais, ainsi que des tests périodiques de biais pour tous les outils d’IA en usage, et obligerait la formation des employés sur l’utilisation appropriée de l’IA.
Un autre projet de loi en attente au niveau fédéral est le « Stop Spying Bosses Act », S. 262. Bien que ce projet de loi concerne davantage la régulation de la surveillance au travail et moins l’IA, il contient une disposition qui stipule qu’un employeur est interdit d’utiliser un système de décision automatisé pour prédire le comportement d’un individu couvert qui n’est pas lié au travail de cette personne pour l’employeur. Il est probable que cette disposition soit atténuée ou même éliminée à mesure que le projet de loi progresse en commission, mais il vaut la peine de la suivre car le texte pourrait inviter à des interprétations larges couvrant une gamme de systèmes d’IA.
Bien qu’il soit difficile de prédire si le No Robot Bosses Act ou le Stop Spying Bosses Act deviendront un jour des lois, notamment en raison du changement imminent de leadership exécutif, ces lois sont emblématiques de l’activité législative à travers les États-Unis qui se poursuivra en 2025.
En effet, au niveau des États, plusieurs juridictions ont des lois en attente visant à limiter l’utilisation de l’IA et à exiger que les employeurs respectent des exigences strictes en matière de notification, d’audit et de tenue de dossiers. Par exemple, dans l’Illinois, le HB 5116, introduit en février 2024, cherche à exiger que les employeurs réalisent des audits d’évaluation d’impact obligatoires pour les outils de décision automatisés. De même, le projet de loi proposé « Preventing a Dystopian Work Environment » (H.1873) dans le Massachusetts exige également des évaluations d’impact et obligerait les employeurs à soumettre une liste au département du travail de l’État de tous les outils d’IA en usage.
Les employeurs devraient s’attendre à un développement continu au niveau législatif des États et des collectivités locales en 2025 et au-delà.
Ce à Quoi S’Attendre – Union Européenne et Royaume-Uni
Il est probable qu’un projet de loi soit proposé au Royaume-Uni concernant la réglementation de l’IA au cours de l’année prochaine. Le nouveau gouvernement a clairement indiqué qu’il cherchera à établir une législation pour réglementer le développement de l’IA, bien qu’aucune législation spécifique n’ait été vue à la date de rédaction. Cela dévie de l’approche proposée par le gouvernement précédent, qui avait adopté une approche non contraignante pour réglementer le développement et l’utilisation de l’IA, choisissant d’adopter une approche plus basée sur des principes.
Il est intéressant de noter qu’en 2023, le Trades Union Congress (TUC) a lancé un groupe de travail sur l’IA et publié le AI (Employment and Regulation) Bill, une législation spécifique à l’IA dans le milieu de travail. Ce projet de loi a depuis été abandonné, mais il est révélateur de ce que nous pourrions voir émerger en 2025 au Royaume-Uni.
Dans l’UE, la loi sur l’IA de l’UE est déjà en vigueur et certaines obligations deviendront applicables dans l’année à venir, notamment celles concernant les systèmes d’IA interdits et la culture de l’IA, qui entreront en vigueur le 2 février 2025. Des obligations spécifiques concernant les modèles d’IA à usage général entreront également en vigueur le 2 août 2025. La plupart des autres obligations sous la loi sur l’IA, y compris les règles applicables aux systèmes d’IA à haut risque et aux systèmes soumis à des exigences de transparence spécifiques, entreront en vigueur le 2 août 2026. Les dispositions restantes entreront en vigueur le 2 août 2027.
La loi sur l’IA de l’UE exige que les différentes autorités de l’UE (la Commission européenne, le Bureau de l’IA et le Conseil de l’IA) émettent des orientations et d’autres documents, et ces futures orientations seront utiles aux organisations pour évaluer leur conformité à la loi. De la même manière, les autorités de protection des données à travers l’UE et l’ICO du Royaume-Uni continueront probablement à émettre des recommandations sur l’utilisation de l’IA. Le 6 novembre 2024, l’ICO du Royaume-Uni a publié un rapport à la suite d’audits consensuels réalisés entre août 2023 et mai 2024 avec des développeurs et des fournisseurs d’outils d’IA pour le sourcing, le filtrage et la sélection utilisés dans le recrutement. Le rapport couvre les résultats des audits et contient une série de recommandations pour les recruteurs – et pour les développeurs et fournisseurs d’outils d’IA de recrutement – visant à mieux protéger les droits de confidentialité des données des candidats. Le rapport détaille comment les audits ont identifié des bonnes pratiques dans plusieurs domaines, mais révèle également des domaines à améliorer, tels qu’un manque de tests de précision et la collecte inutile de données personnelles.
Une orientation plus spécifique aux secteurs de la part des régulateurs dans des secteurs particuliers comme les services financiers est également attendue, car l’IA est utilisée de manière extensive.