Départ du partenaire de Deloitte responsable du fiasco lié à l’IA

Deloitte : Un partenaire responsable du fiasco de l’IA quitte l’entreprise

Un partenaire non nommé en charge du rapport sur le bien-être de Deloitte, qui contenait de multiples erreurs générées par l’IA, quitte l’organisation après que Deloitte a annoncé qu’elle imposerait des mesures disciplinaires concernant la production du rapport.

Deloitte a présenté ses excuses, a émis une version corrigée du rapport et a restitué 98 000 $ des 440 000 $ qu’elle avait reçus.

Le Département des Finances examine actuellement la qualité du travail de Deloitte dans l’ensemble du service public et pourrait demander des remboursements supplémentaires si Deloitte est reconnu coupable d’avoir enfreint le code de conduite des fournisseurs du gouvernement.

Ce qui s’est passé

Deloitte a été engagé par le Département de l’Emploi et des Relations de Travail (DEWR) pour examiner le cadre de conformité au bien-être, dans le cadre d’un contrat de 440 000 $. Lorsque de fausses références académiques et une citation légale fabriquée ont été exposées dans le rapport publié, Deloitte a d’abord informé le département que les problèmes étaient limités aux citations et aux notes de bas de page.

Des correspondances internes ont ensuite montré :

  • Deloitte a dit au Département des Finances que le DEWR avait été informé que l’IA générative était à l’origine des erreurs.
  • Un sous-secrétaire adjoint du DEWR a contredit cela, déclarant que si Deloitte s’était excusé pour les erreurs de citation, il n’avait jamais divulgué que des outils d’IA générative étaient responsables.
  • Deloitte a ensuite fait marche arrière et a admis que le DEWR n’avait pas été informé que l’IA était la cause.

Cette séquence a mis en évidence non seulement des échecs techniques, mais aussi une rupture dans la communication et la divulgation.

Utilisation non approuvée de l’IA et « scope creep »

Le DEWR avait explicitement autorisé Deloitte à utiliser des outils d’IA licenciés par le département dans un environnement sécurisé pour aider avec des travaux techniques tels que l’analyse de code et de flux de travail.

Cependant, le personnel de Deloitte a également utilisé des outils d’IA générative externes (y compris ChatGPT et MyAssist) pour des tâches liées à l’écriture, comme le résumé de cas juridiques et la mise en forme des citations – des activités qui n’étaient pas couvertes par l’approbation initiale et non clairement divulguées au client.

Plus tard, Deloitte a décrit ses outils plus étroitement comme un système Azure OpenAI GPT-4 verrouillé fonctionnant à l’intérieur de l’environnement du DEWR, mais un e-mail interne a reconnu que les outils ouverts n’étaient pas soumis aux mêmes contrôles. Cet écart entre l’utilisation sanctionnée et l’utilisation réelle est exactement le genre de « scope creep » que les organisations doivent de plus en plus affronter lorsque les employés s’appuient sur des outils pratiques sous pression de temps.

Conséquences et critiques

En raison des erreurs et des échecs de divulgation, le DEWR a demandé presque 100 000 $ de remboursement à Deloitte et a confirmé que le rapport corrigé, republié fin septembre, avait été vérifié et cité manuellement sans utilisation d’IA.

Le département a conservé les principales conclusions et recommandations du rapport, mais a reconnu des problèmes antérieurs de notes de bas de page et de références. Deloitte a insisté sur le fait qu’elle maintenait la substance de son travail et que les corrections n’affectent pas les conclusions.

Cependant, les critiques demeurent sceptiques. Le Dr Christopher Rudge, qui a d’abord exposé les sources fausses, a soutenu que remplacer des références fabriquées par de nouvelles ne montrait pas clairement que les revendications originales étaient basées sur des preuves. Au Parlement, la sénatrice Deborah O’Neill a condamné la conduite de Deloitte en tant que « problème d’intelligence humaine », suggérant que les acheteurs devraient vérifier qui effectue réellement le travail et si l’IA est impliquée – notant avec ironie qu’un abonnement à ChatGPT pourrait coûter moins cher que d’engager un grand cabinet de conseil.

Attentes croissantes en matière de transparence de l’IA

En réponse, le gouvernement fédéral a commencé à renforcer les règles d’utilisation de l’IA dans le conseil au secteur public. Les grandes entreprises doivent désormais divulguer où l’IA générative est utilisée dans les travaux contractuels, et les agences commencent à intégrer des clauses spécifiques de transparence de l’IA dans les déclarations de travail.

Les spécialistes des achats soutiennent que les contrats traditionnels ne sont pas conçus pour des outils qui génèrent du contenu ainsi que pour analyser des données, et que les normes doivent être mises à jour. À l’international, les régulateurs et les organismes professionnels avertissent que les « hallucinations » de l’IA posent des risques particuliers dans des domaines comme les RH, le droit, l’audit et la politique – où les clients supposent que les citations et les sources ont été rigoureusement vérifiées.

Implications pour les RH

Alors que ce drame se déroule entre un cabinet de conseil et le gouvernement, les enjeux centraux relèvent de la responsabilité des RH : politique, comportement, responsabilité et culture.

Les leçons clés incluent :

  • Les politiques d’IA doivent être spécifiques et opérationnelles : le DEWR a autorisé une utilisation limitée de l’IA pour l’analyse de code dans un environnement sécurisé. Le personnel de Deloitte a étendu l’utilisation de l’IA à des tâches de contenu et de citation avec moins de contrôle. Les politiques et formations RH doivent établir des lignes claires entre les utilisations approuvées et interdites, et ne pas se fier à des directives vagues et aspirantes.
  • La divulgation est un risque humain, pas une technicité : l’échec central n’était pas seulement les hallucinations de l’IA, mais des déclarations incomplètes et incorrectes sur ce qui s’est passé. Les équipes RH supervisant l’éthique, la conduite et le signalement des préoccupations doivent traiter l’utilisation de l’IA comme tout autre domaine où l’honnêteté et l’escalade sont critiques.
  • La supervision des fournisseurs et des partenaires inclut désormais les pratiques d’IA : le défi de la sénatrice O’Neill – demander qui effectue le travail et si l’IA est utilisée – s’applique directement aux analyses RH externalisées, à la technologie de recrutement et aux examens de culture. Les responsables RH doivent demander aux fournisseurs externes d’expliquer leur utilisation de l’IA, leurs contrôles, leur formation et leurs processus de vérification.
  • La formation doit développer le jugement, pas seulement les compétences techniques : Deloitte a soutenu que ses conclusions demeurent valables. Cependant, la controverse montre que même si les résultats semblent intacts, un mauvais jugement sur la manière dont l’IA est utilisée et vérifiée peut infliger de graves dommages à la réputation. Les programmes de développement RH doivent se concentrer sur quand ne pas utiliser l’IA, quand la vérifier et quand escalader les préoccupations.

Où vont les RH à partir de maintenant

La plupart des grandes organisations utilisent déjà l’IA générative dans les fonctions RH et des personnes – rédaction de politiques, résumé de conseils juridiques, sélection de CV, interprétation des résultats d’enquête. L’affaire Deloitte est peu susceptible d’arrêter ce changement, mais elle devrait remodeler la manière dont il est gouverné.

Pour les responsables RH, cet épisode est une invitation à poser des questions franches :

  • Où l’IA est-elle exactement utilisée dans nos processus RH et de personnes ?
  • Quels outils sont formellement approuvés – et lesquels sont utilisés de manière informelle ?
  • Nos collaborateurs savent-ils ce qui doit être divulgué aux clients, aux employés, aux syndicats et aux régulateurs lorsque l’IA est impliquée ?
  • Si nous faisions face à un incident similaire à celui de Deloitte, pourrions-nous rapidement expliquer qui a fait quoi, quels outils ont été utilisés et pourquoi ?

En fin de compte, ce sont des personnes – et non un algorithme – qui ont choisi les outils, signé le contrat, envoyé les lettres et omis des détails clés. À une époque où l’on attend des RH qu’elles prennent en charge la culture, l’éthique et la capacité de la main-d’œuvre autour de l’IA, ce facteur humain pourrait être la leçon la plus difficile et la plus importante de toutes.

More Insights

Revolutionizing Drone Regulations: The EU AI Act Explained

The EU AI Act represents a significant regulatory framework that aims to address the challenges posed by artificial intelligence technologies in various sectors, including the burgeoning field of...

Embracing Responsible AI to Mitigate Legal Risks

Businesses must prioritize responsible AI as a frontline defense against legal, financial, and reputational risks, particularly in understanding data lineage. Ignoring these responsibilities could...

AI Governance: Addressing the Shadow IT Challenge

AI tools are rapidly transforming workplace operations, but much of their adoption is happening without proper oversight, leading to the rise of shadow AI as a security concern. Organizations need to...

EU Delays AI Act Implementation to 2027 Amid Industry Pressure

The EU plans to delay the enforcement of high-risk duties in the AI Act until late 2027, allowing companies more time to comply with the regulations. However, this move has drawn criticism from rights...

White House Challenges GAIN AI Act Amid Nvidia Export Controversy

The White House is pushing back against the bipartisan GAIN AI Act, which aims to prioritize U.S. companies in acquiring advanced AI chips. This resistance reflects a strategic decision to maintain...

Experts Warn of EU AI Act’s Impact on Medtech Innovation

Experts at the 2025 European Digital Technology and Software conference expressed concerns that the EU AI Act could hinder the launch of new medtech products in the European market. They emphasized...

Ethical AI: Transforming Compliance into Innovation

Enterprises are racing to innovate with artificial intelligence, often without the proper compliance measures in place. By embedding privacy and ethics into the development lifecycle, organizations...

AI Hiring Compliance Risks Uncovered

Artificial intelligence is reshaping recruitment, with the percentage of HR leaders using generative AI increasing from 19% to 61% between 2023 and 2025. However, this efficiency comes with legal...

AI in Australian Government: Balancing Innovation and Security Risks

The Australian government is considering using AI to draft sensitive cabinet submissions as part of a broader strategy to implement AI across the public service. While some public servants report...