Exigences AI pour les offres d’emploi en Ontario

A puzzle piece

AI et Offres d’Emploi : Naviguer dans les Exigences à Venir de l’Ontario

Le 21 mars, le projet de loi 149 de l’Ontario, intitulé Working for Workers Four Act, 2024, a reçu l’assentiment royal. Ce projet de loi introduit des modifications significatives à la Employment Standards Act, 2000 (ESA), y compris une obligation pour les employeurs de divulguer l’utilisation de l’intelligence artificielle (IA) dans les offres d’emploi publiées. À compter du 1er janvier 2026, les employeurs comptant vingt-cinq (25) employés ou plus doivent inclure une déclaration sur les offres d’emploi si l’IA est utilisée pour filtrer, évaluer ou sélectionner des candidats.

Alors que les employeurs se préparent à ce changement, la conformité doit s’aligner sur des pratiques d’embauche plus larges en matière de normes légales et éthiques. La transparence et l’équité sont des considérations importantes associées à une utilisation responsable de l’IA, et les exigences de divulgation obligatoires de l’Ontario prennent cela en compte. En étant attentifs à la transparence et à l’équité lors de l’utilisation de l’IA, les employeurs peuvent réduire le risque de ne pas respecter les exigences de divulgation tout en démontrant un engagement envers des pratiques d’embauche éthiques dans un paysage de plus en plus automatisé.

Exigences de Divulgation de l’IA en Vertu du Projet de Loi 149

Le projet de loi 149 modifie l’ESA en introduisant plusieurs nouvelles exigences, notamment celles relatives à l’IA, qu’il définit largement comme « un système basé sur une machine qui, pour des objectifs explicites ou implicites, infère à partir des entrées qu’il reçoit afin de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer un environnement physique ou virtuel ». En ce qui concerne l’IA, le projet de loi 149 prévoit que les employeurs doivent divulguer si l’IA est utilisée pour évaluer ou sélectionner des candidats dans toute offre d’emploi publiée.

Portée et Exemptions

Ces règles s’appliquent aux offres d’emploi externes accessibles au public. Notamment, le projet de loi 149 exempte :

  • Les annonces internes (pour les employés actuels uniquement).
  • Les panneaux généraux « aide requise ».
  • Le recrutement pour un travail effectué en dehors de l’Ontario.

Les employeurs comptant moins de vingt-cinq (25) employés ne sont pas actuellement soumis à ces obligations.

Considérations Légales et en Matière de Droits Humains

La prise de décision automatisée est de plus en plus utilisée par les organisations pour attirer les meilleurs talents, rationaliser le processus d’embauche ou aider à l’évaluation des performances. Cependant, l’impact potentiel du biais algorithmique et la nécessité de transparence restent des considérations importantes concernant l’utilisation équitable et responsable de l’IA.

La Commission des droits de la personne de l’Ontario (OHRC) a signalé l’utilisation de l’IA dans l’emploi comme un risque croissant, citant le potentiel de discrimination indirecte par le biais du biais algorithmique. Par exemple, les outils d’IA formés sur des données historiques d’embauche pourraient reproduire des exigences injustes et un langage biaisé dans les annonces d’emploi. Cela pourrait favoriser involontairement certaines démographies et exclure d’autres caractéristiques, enfreignant ainsi potentiellement les droits en vertu du Human Rights Code de l’Ontario.

Cela signifie que le non-respect des exigences de divulgation de l’IA du projet de loi 149 pourrait non seulement déclencher l’application de l’ESA, mais également des plaintes en matière de droits humains en vertu du Code, en particulier si les décisions basées sur l’IA entraînent des résultats discriminatoires.

Stratégies Pratiques de Mitigation des Risques

Bien qu’un règlement accompagnant le projet de loi 149 ait été publié fin 2024 et fournisse une définition de l’IA, il ne clarifie pas quels outils, systèmes ou processus spécifiques relèvent de cette définition et déclencheraient donc l’obligation de divulgation pour les offres d’emploi publiées. Le manque de clarté actuel sur ce qui constitue l’utilisation de l’IA dans les offres d’emploi en vertu du projet de loi 149 pourrait entraîner des rapports incohérents (soit sous-reporting, soit sur-reporting), augmentant ainsi le risque de non-conformité. En l’absence de directives supplémentaires du gouvernement de l’Ontario et étant donné les exigences de divulgation de l’IA qui devraient entrer en vigueur en janvier prochain, les employeurs devraient utiliser les mois à venir pour se préparer à la conformité et envisager de prendre les mesures suivantes :

  • Effectuer des évaluations d’impact algorithmique : Des audits réguliers peuvent identifier des résultats biaisés ou des lacunes de données dans les outils d’IA. Les employeurs devraient documenter la logique décisionnelle de l’IA et tester les modèles discriminatoires.
  • Développer des pratiques de divulgation transparentes : Bien que le projet de loi 149 ne précise pas le langage exact pour répondre aux exigences de divulgation de l’IA, pour errer du côté de la prudence, les offres d’emploi devraient clairement indiquer comment l’IA est utilisée dans le processus de recrutement et d’intégration, et à quelles étapes.
  • Intégrer une supervision humaine : Les employeurs utilisant déjà l’IA devraient envisager une approche de « l’humain dans la boucle » pour les pratiques d’embauche. Cela aide à garantir que les décisions finales d’embauche sont examinées et contextualisées par des professionnels des RH afin de limiter la dépendance excessive au jugement algorithmique et d’éviter des résultats indésirables (par exemple, exclure involontairement certaines démographies du bassin de candidats en raison de données de formation médiocres utilisées par les modèles d’IA).
  • Former les équipes RH et juridiques : Le personnel doit avoir une compréhension claire de la façon dont l’IA est déployée par leurs organisations, ainsi qu’une bonne maîtrise de leurs obligations légales de divulgation et de confidentialité. Cela inclut la révision et l’audit des pratiques et politiques existantes et la réalisation d’analyses des lacunes pour se préparer aux nouvelles obligations en vertu du projet de loi 149, telles que l’adoption d’un cadre de gouvernance de l’IA pour l’utilisation responsable de l’IA.
  • Réviser les accords avec les fournisseurs : Si un employeur utilise des solutions d’IA tierces pour aider à l’embauche, il serait conseillé de confirmer que ces solutions seront conformes au projet de loi 149 et, dans la mesure où il y a des lacunes de conformité, de les remédier par des modifications contractuelles.

Points Clés à Retenir

Le projet de loi 149 de l’Ontario introduit de nouvelles exigences de divulgation de l’IA qui reflètent le rôle croissant de l’utilisation de l’IA dans les pratiques d’embauche. À mesure que ces règles entreront en vigueur, les entreprises devraient commencer à évaluer comment l’IA est utilisée dans leurs processus de recrutement et prendre des mesures pour s’aligner sur les attentes légales évolutives. Bien que l’accent soit mis sur la transparence et l’équité, ces principes revêtent désormais un poids juridique à travers les cadres d’emploi, de droits humains et de confidentialité. Cela est particulièrement important dans le cadre d’une fonction de filtrage telle que l’embauche d’employés. Les employeurs doivent rester conscients des risques associés aux systèmes d’IA qui pourraient avoir un impact matériel négatif sur les individus, que ce soit par action ou omission. Se préparer tôt peut aider les organisations à naviguer dans ces changements de manière fluide et responsable.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...