Deloitte : Un partenaire responsable du fiasco de l’IA quitte l’entreprise
Un partenaire non nommé en charge du rapport sur le bien-être de Deloitte, qui contenait de multiples erreurs générées par l’IA, quitte l’organisation après que Deloitte a annoncé qu’elle imposerait des mesures disciplinaires concernant la production du rapport.
Deloitte a présenté ses excuses, a émis une version corrigée du rapport et a restitué 98 000 $ des 440 000 $ qu’elle avait reçus.
Le Département des Finances examine actuellement la qualité du travail de Deloitte dans l’ensemble du service public et pourrait demander des remboursements supplémentaires si Deloitte est reconnu coupable d’avoir enfreint le code de conduite des fournisseurs du gouvernement.
Ce qui s’est passé
Deloitte a été engagé par le Département de l’Emploi et des Relations de Travail (DEWR) pour examiner le cadre de conformité au bien-être, dans le cadre d’un contrat de 440 000 $. Lorsque de fausses références académiques et une citation légale fabriquée ont été exposées dans le rapport publié, Deloitte a d’abord informé le département que les problèmes étaient limités aux citations et aux notes de bas de page.
Des correspondances internes ont ensuite montré :
- Deloitte a dit au Département des Finances que le DEWR avait été informé que l’IA générative était à l’origine des erreurs.
- Un sous-secrétaire adjoint du DEWR a contredit cela, déclarant que si Deloitte s’était excusé pour les erreurs de citation, il n’avait jamais divulgué que des outils d’IA générative étaient responsables.
- Deloitte a ensuite fait marche arrière et a admis que le DEWR n’avait pas été informé que l’IA était la cause.
Cette séquence a mis en évidence non seulement des échecs techniques, mais aussi une rupture dans la communication et la divulgation.
Utilisation non approuvée de l’IA et « scope creep »
Le DEWR avait explicitement autorisé Deloitte à utiliser des outils d’IA licenciés par le département dans un environnement sécurisé pour aider avec des travaux techniques tels que l’analyse de code et de flux de travail.
Cependant, le personnel de Deloitte a également utilisé des outils d’IA générative externes (y compris ChatGPT et MyAssist) pour des tâches liées à l’écriture, comme le résumé de cas juridiques et la mise en forme des citations – des activités qui n’étaient pas couvertes par l’approbation initiale et non clairement divulguées au client.
Plus tard, Deloitte a décrit ses outils plus étroitement comme un système Azure OpenAI GPT-4 verrouillé fonctionnant à l’intérieur de l’environnement du DEWR, mais un e-mail interne a reconnu que les outils ouverts n’étaient pas soumis aux mêmes contrôles. Cet écart entre l’utilisation sanctionnée et l’utilisation réelle est exactement le genre de « scope creep » que les organisations doivent de plus en plus affronter lorsque les employés s’appuient sur des outils pratiques sous pression de temps.
Conséquences et critiques
En raison des erreurs et des échecs de divulgation, le DEWR a demandé presque 100 000 $ de remboursement à Deloitte et a confirmé que le rapport corrigé, republié fin septembre, avait été vérifié et cité manuellement sans utilisation d’IA.
Le département a conservé les principales conclusions et recommandations du rapport, mais a reconnu des problèmes antérieurs de notes de bas de page et de références. Deloitte a insisté sur le fait qu’elle maintenait la substance de son travail et que les corrections n’affectent pas les conclusions.
Cependant, les critiques demeurent sceptiques. Le Dr Christopher Rudge, qui a d’abord exposé les sources fausses, a soutenu que remplacer des références fabriquées par de nouvelles ne montrait pas clairement que les revendications originales étaient basées sur des preuves. Au Parlement, la sénatrice Deborah O’Neill a condamné la conduite de Deloitte en tant que « problème d’intelligence humaine », suggérant que les acheteurs devraient vérifier qui effectue réellement le travail et si l’IA est impliquée – notant avec ironie qu’un abonnement à ChatGPT pourrait coûter moins cher que d’engager un grand cabinet de conseil.
Attentes croissantes en matière de transparence de l’IA
En réponse, le gouvernement fédéral a commencé à renforcer les règles d’utilisation de l’IA dans le conseil au secteur public. Les grandes entreprises doivent désormais divulguer où l’IA générative est utilisée dans les travaux contractuels, et les agences commencent à intégrer des clauses spécifiques de transparence de l’IA dans les déclarations de travail.
Les spécialistes des achats soutiennent que les contrats traditionnels ne sont pas conçus pour des outils qui génèrent du contenu ainsi que pour analyser des données, et que les normes doivent être mises à jour. À l’international, les régulateurs et les organismes professionnels avertissent que les « hallucinations » de l’IA posent des risques particuliers dans des domaines comme les RH, le droit, l’audit et la politique – où les clients supposent que les citations et les sources ont été rigoureusement vérifiées.
Implications pour les RH
Alors que ce drame se déroule entre un cabinet de conseil et le gouvernement, les enjeux centraux relèvent de la responsabilité des RH : politique, comportement, responsabilité et culture.
Les leçons clés incluent :
- Les politiques d’IA doivent être spécifiques et opérationnelles : le DEWR a autorisé une utilisation limitée de l’IA pour l’analyse de code dans un environnement sécurisé. Le personnel de Deloitte a étendu l’utilisation de l’IA à des tâches de contenu et de citation avec moins de contrôle. Les politiques et formations RH doivent établir des lignes claires entre les utilisations approuvées et interdites, et ne pas se fier à des directives vagues et aspirantes.
- La divulgation est un risque humain, pas une technicité : l’échec central n’était pas seulement les hallucinations de l’IA, mais des déclarations incomplètes et incorrectes sur ce qui s’est passé. Les équipes RH supervisant l’éthique, la conduite et le signalement des préoccupations doivent traiter l’utilisation de l’IA comme tout autre domaine où l’honnêteté et l’escalade sont critiques.
- La supervision des fournisseurs et des partenaires inclut désormais les pratiques d’IA : le défi de la sénatrice O’Neill – demander qui effectue le travail et si l’IA est utilisée – s’applique directement aux analyses RH externalisées, à la technologie de recrutement et aux examens de culture. Les responsables RH doivent demander aux fournisseurs externes d’expliquer leur utilisation de l’IA, leurs contrôles, leur formation et leurs processus de vérification.
- La formation doit développer le jugement, pas seulement les compétences techniques : Deloitte a soutenu que ses conclusions demeurent valables. Cependant, la controverse montre que même si les résultats semblent intacts, un mauvais jugement sur la manière dont l’IA est utilisée et vérifiée peut infliger de graves dommages à la réputation. Les programmes de développement RH doivent se concentrer sur quand ne pas utiliser l’IA, quand la vérifier et quand escalader les préoccupations.
Où vont les RH à partir de maintenant
La plupart des grandes organisations utilisent déjà l’IA générative dans les fonctions RH et des personnes – rédaction de politiques, résumé de conseils juridiques, sélection de CV, interprétation des résultats d’enquête. L’affaire Deloitte est peu susceptible d’arrêter ce changement, mais elle devrait remodeler la manière dont il est gouverné.
Pour les responsables RH, cet épisode est une invitation à poser des questions franches :
- Où l’IA est-elle exactement utilisée dans nos processus RH et de personnes ?
- Quels outils sont formellement approuvés – et lesquels sont utilisés de manière informelle ?
- Nos collaborateurs savent-ils ce qui doit être divulgué aux clients, aux employés, aux syndicats et aux régulateurs lorsque l’IA est impliquée ?
- Si nous faisions face à un incident similaire à celui de Deloitte, pourrions-nous rapidement expliquer qui a fait quoi, quels outils ont été utilisés et pourquoi ?
En fin de compte, ce sont des personnes – et non un algorithme – qui ont choisi les outils, signé le contrat, envoyé les lettres et omis des détails clés. À une époque où l’on attend des RH qu’elles prennent en charge la culture, l’éthique et la capacité de la main-d’œuvre autour de l’IA, ce facteur humain pourrait être la leçon la plus difficile et la plus importante de toutes.