Utilisation de l’IA au travail : ce que les employeurs doivent faire maintenant pour gérer le risque
Les outils d’intelligence artificielle, en particulier l’IA générative, sont de plus en plus utilisés dans le milieu professionnel, souvent par une adoption informelle de la part des employés plutôt que par des décisions de déploiement au niveau de l’entreprise. Bien qu’une réglementation complète de l’intelligence artificielle reste incertaine, le travail assisté par IA est déjà une réalité pour de nombreux employeurs, souvent sans directives, supervision ou documentation formelles. Par conséquent, les employeurs peuvent manquer de visibilité sur la manière dont ces outils sont utilisés, quelles données sont partagées et qui est responsable des résultats assistés par l’IA, créant ainsi une exposition avant qu’un problème ne survienne.
Comment l’intelligence artificielle est utilisée au travail
Dans divers secteurs, les employés utilisent des outils activés par l’IA pour les aider dans des activités de travail tant routinières que substantielles. Les utilisations courantes incluent la rédaction de communications écrites, de politiques et de documents de performance ; le filtrage ou le résumé de candidatures et de CV ; la préparation de matériaux d’évaluation ; la génération de contenu de formation ou de directives internes ; et l’assistance pour la documentation disciplinaire ou de licenciement. Nombre de ces outils sont disponibles publiquement ou intégrés dans des plateformes logicielles existantes. Dans de nombreuses organisations, les outils d’IA sont utilisés sans coordination avec les fonctions juridiques, des ressources humaines ou des technologies de l’information. Bien que cette utilisation puisse accroître l’efficacité, elle peut également introduire des risques lorsque les employeurs manquent de paramètres clairs régissant l’utilisation acceptable, la supervision appropriée et la responsabilité.
Domaines de risque liés à l’emploi
L’utilisation non gérée de l’IA peut impliquer plusieurs domaines du droit du travail et des risques en milieu de travail, en particulier lorsque les résultats assistés par l’IA influencent les décisions d’emploi.
Confidentialité des données
Les employés peuvent entrer des informations sensibles dans des outils d’IA, y compris des données sur les employés et les candidats, des détails de rémunération, des informations médicales ou des informations commerciales confidentielles. Selon l’outil et sa configuration, ces informations peuvent être conservées, traitées ou utilisées de manière non transparente pour l’employeur, augmentant ainsi les risques de confidentialité et de conformité.
Décisions de recrutement, de promotion et disciplinaires
Le filtrage, l’évaluation ou la rédaction assistés par l’IA concernant les décisions d’emploi peuvent soulever des préoccupations concernant les biais, l’impact disparate et l’exactitude de la documentation. Ces risques sont accrus lorsque les outils d’IA sont utilisés pour influencer ou soutenir les décisions de recrutement, de promotion, de discipline ou de licenciement sans normes claires, transparence concernant les entrées, examen humain indépendant et responsabilité pour la prise de décision finale.
Exactitude et fiabilité du contenu généré par l’IA
Le contenu généré par l’IA est intrinsèquement susceptible d’inexactitudes, y compris des « hallucinations » : des résultats qui semblent autoritaires ou plausibles mais qui sont inexacts, incomplets ou fabriqués. Lorsque les employeurs s’appuient sur du contenu généré par l’IA sans vérification humaine significative, ils peuvent être incapables de défendre de manière crédible l’exactitude ou la base de ce contenu s’il est contesté ultérieurement. L’utilisation de contenus non vérifiés dans des dossiers de personnel, des décisions d’emploi ou des communications externes peut considérablement augmenter l’exposition aux litiges et à la réglementation.
Considérations légales et de découverte
L’utilisation d’outils d’IA peut compliquer considérablement les obligations de découverte et créer une exposition aux litiges dès qu’un différend survient. Les employeurs peuvent être tenus d’identifier les outils d’IA utilisés en relation avec des décisions d’emploi contestées, de produire des invites ou des entrées saisies dans les systèmes d’IA, d’expliquer comment les résultats générés par l’IA ont été examinés et intégrés dans les décisions finales, de démontrer quelle supervision humaine a eu lieu et par qui, et de conserver le contenu généré par l’IA pertinent pour le différend. La crédibilité de l’employeur peut être compromise s’il ne peut pas articuler clairement comment les outils d’IA ont été utilisés, qui a exercé son jugement, et si les décisions ont été guidées par un raisonnement humain plutôt que par un résultat automatisé.
Observations des pratiques actuelles : un écart de gouvernance
À travers les organisations, un écart de gouvernance cohérent émerge autour de l’utilisation de l’IA au travail. Les employés utilisent souvent des outils d’IA générative sans approbation, orientation ou formation, et il n’y a souvent pas de clarté organisationnelle sur les informations qui peuvent ou non être saisies dans les systèmes d’IA. Les pratiques d’utilisation de l’IA varient souvent entre les départements au sein de la même organisation, avec peu de coordination ou de supervision centralisée. Les employés reçoivent souvent une formation limitée concernant les limites de l’IA, les risques associés ou la nécessité de vérifier les résultats générés par l’IA. Il n’y a également souvent pas de responsabilité claire pour le produit de travail assisté par l’IA, et peu de documentation concernant les outils d’IA utilisés ou leur mode de déploiement.
Éléments d’une politique efficace d’utilisation de l’IA
Une politique d’utilisation de l’IA bien conçue remplit plusieurs fonctions de gestion des risques. Elle établit des limites claires pour l’utilisation acceptable, crée une responsabilité pour le produit de travail assisté par l’IA et aide à générer la documentation qui peut être critique pour défendre les décisions d’emploi. Il n’existe pas de modèle unique qui convienne à toutes les organisations, mais les politiques efficaces abordent systématiquement un ensemble central de questions. Ces questions incluent généralement la définition de la portée des outils d’IA couverts et des fonctionnalités activées par l’IA ; la spécification des utilisations permises et interdites ; la restriction des types de données pouvant être saisies dans les systèmes d’IA, y compris les données personnelles des employés et les informations commerciales confidentielles ; et l’exigence d’un examen humain significatif avant que les résultats assistés par l’IA ne soient utilisés. Les politiques efficaces abordent également les garde-fous pour l’utilisation de l’IA dans les décisions de recrutement, de promotion, de discipline et de licenciement ; la supervision de la fonctionnalité de l’IA intégrée dans les plateformes tierces ; les attentes en matière de diligence raisonnable des fournisseurs ; et la responsabilité pour le produit de travail assisté par l’IA. Les politiques sont les plus efficaces lorsqu’elles sont pratiques, clairement écrites et alignées sur la manière dont les employés effectuent leur travail.
Étapes que les employeurs devraient envisager de prendre maintenant
Les employeurs n’ont pas besoin de résoudre chaque problème lié à l’IA immédiatement, mais plusieurs étapes à court terme peuvent réduire significativement le risque. Ils devraient commencer par identifier comment les outils d’IA sont actuellement utilisés dans l’organisation, y compris les fonctionnalités d’IA intégrées dans des plateformes tierces. Ils devraient également envisager d’adopter des directives politiques de base qui définissent les utilisations permises, interdisent certaines catégories d’entrées et exigent une supervision humaine significative avant que les résultats assistés par l’IA ne soient utilisés. Une formation ciblée pour le personnel des ressources humaines, les managers et d’autres utilisateurs est souvent essentielle pour garantir une mise en œuvre cohérente et renforcer les attentes de vérification. Enfin, les employeurs peuvent souhaiter examiner les processus de recrutement, de promotion, de gestion de la performance et disciplinaires pour déterminer si des outils d’IA sont utilisés et si des contrôles appropriés sont en place. La coordination entre les fonctions juridiques, des ressources humaines, des technologies de l’information, de la conformité et des achats peut aider à surveiller les conditions des fournisseurs, à maintenir la documentation et à mettre à jour les directives internes à mesure que les exigences légales et les pratiques commerciales évoluent.
Regard sur l’avenir
Les outils d’intelligence artificielle continueront d’évoluer, tout comme le paysage juridique et réglementaire régissant leur utilisation en milieu de travail. Les employeurs qui adoptent une approche mesurée et pratique dès maintenant, en mettant l’accent sur la gouvernance, la responsabilité et la formation, seront mieux placés pour s’adapter à mesure que les attentes continueront à se développer.