Deloitte et l’impact de l’IA : Une leçon sur la gouvernance
Il y a environ un mois, des observateurs ont commencé à exprimer des inquiétudes concernant un rapport produit par Deloitte pour le gouvernement fédéral australien. Ce rapport contenait des éléments qui ne pouvaient être retracés à des sources réelles. Plusieurs cas de citations fictives et de citations mal attribuées ont été signalés, notamment des références à des travaux et des décisions judiciaires qui n’existent tout simplement pas.
Deloitte a finalement admis avoir utilisé de l’IA générative dans la production de ce rapport, ce qui a conduit à un remboursement partiel au gouvernement et à la publication de corrections.
Le phénomène de l’« AI Slop »
Ce cas n’est pas isolé ; il illustre un problème plus profond et croissant concernant l’utilisation de l’IA dans des contextes professionnels : la normalisation de ce que l’on appelle « AI slop », c’est-à-dire du contenu généré par machine qui semble poli en surface mais qui est en réalité défectueux.
Dans la version originale du rapport de Deloitte, des universitaires ont noté que plusieurs des travaux cités par des chercheurs de l’Université de Sydney et d’autres institutions n’existent pas, et que les citations juridiques étaient déformées ou fabriquées. Bien que Deloitte ait défendu ses résultats, l’entreprise a reconnu la nécessité de corriger les références.
Le besoin de gouvernance
Le problème commun entre l’incident de Deloitte et la controverse autour du modèle Sora 2 d’OpenAI n’est pas une défaillance technique, mais plutôt un échec institutionnel à gouverner le travail généré par l’IA. Dans le cas de Deloitte, des affirmations générées par l’IA ont été intégrées dans une livraison client sans vérification suffisante.
Ce phénomène de « workslop » — contenu généré par l’IA qui semble terminé mais nécessite un travail supplémentaire pour être corrigé — a des conséquences significatives sur la productivité. Selon une étude du Harvard Business Review, environ 40 % des employés interrogés ont rencontré du contenu généré par l’IA nécessitant des corrections, ce qui a engendré presque deux heures de travail supplémentaire en moyenne, et a entraîné une baisse de confiance dans le contenu et la personne qui l’a déployé.
Les conséquences pour l’industrie
L’incident de Deloitte représente une version à grande échelle du travail slop entrant dans un contrat gouvernemental. Ce qui semble poli peut cacher des lacunes, des distorsions ou des hallucinations. À mesure que les modèles génératifs deviennent plus fluides et persuasifs, le fardeau de détecter les erreurs se déplace de plus en plus vers les humains.
La sénatrice Deborah O’Neill a qualifié cet épisode de « problème d’intelligence humaine », soulignant que quiconque envisage de contracter ces entreprises devrait demander qui effectue réellement le travail pour lequel ils paient.
L’importance de la vérification
Si davantage d’organisations adoptent des modèles génératifs sans mettre à jour leurs pipelines de vérification, le volume de l’AI slop pourrait rapidement dépasser leur capacité à le détecter. De nombreuses organisations manquent encore de structures telles que des pistes d’audit, des responsabilités des parties prenantes ou des conseils de révision internes.
Le cœur du problème n’est pas que l’IA soit inutilisable, mais que son utilisation a dépassé le contrôle de qualité. Il est essentiel que le contenu destiné à la livraison aux clients, aux messages publics ou au travail de politique soit audité pour l’exactitude factuelle, la cohérence contextuelle et l’intégrité des sources.
Les recommandations en matière de gouvernance incluent la nécessité d’enregistrer où l’IA est utilisée, d’exiger une approbation humaine et de constituer des conseils de révision pour examiner le contenu généré par l’IA avant sa diffusion. La leçon à tirer de ces cas récents est claire : la technologie avance rapidement, mais les systèmes qui l’entourent sont à la traîne.