La débâcle de Deloitte : quand l’IA précède la gouvernance

A magnifying glass symbolizing the need for closer scrutiny and oversight in AI implementations.

Deloitte et l’impact de l’IA : Une leçon sur la gouvernance

Il y a environ un mois, des observateurs ont commencé à exprimer des inquiétudes concernant un rapport produit par Deloitte pour le gouvernement fédéral australien. Ce rapport contenait des éléments qui ne pouvaient être retracés à des sources réelles. Plusieurs cas de citations fictives et de citations mal attribuées ont été signalés, notamment des références à des travaux et des décisions judiciaires qui n’existent tout simplement pas.

Deloitte a finalement admis avoir utilisé de l’IA générative dans la production de ce rapport, ce qui a conduit à un remboursement partiel au gouvernement et à la publication de corrections.

Le phénomène de l’« AI Slop »

Ce cas n’est pas isolé ; il illustre un problème plus profond et croissant concernant l’utilisation de l’IA dans des contextes professionnels : la normalisation de ce que l’on appelle « AI slop », c’est-à-dire du contenu généré par machine qui semble poli en surface mais qui est en réalité défectueux.

Dans la version originale du rapport de Deloitte, des universitaires ont noté que plusieurs des travaux cités par des chercheurs de l’Université de Sydney et d’autres institutions n’existent pas, et que les citations juridiques étaient déformées ou fabriquées. Bien que Deloitte ait défendu ses résultats, l’entreprise a reconnu la nécessité de corriger les références.

Le besoin de gouvernance

Le problème commun entre l’incident de Deloitte et la controverse autour du modèle Sora 2 d’OpenAI n’est pas une défaillance technique, mais plutôt un échec institutionnel à gouverner le travail généré par l’IA. Dans le cas de Deloitte, des affirmations générées par l’IA ont été intégrées dans une livraison client sans vérification suffisante.

Ce phénomène de « workslop » — contenu généré par l’IA qui semble terminé mais nécessite un travail supplémentaire pour être corrigé — a des conséquences significatives sur la productivité. Selon une étude du Harvard Business Review, environ 40 % des employés interrogés ont rencontré du contenu généré par l’IA nécessitant des corrections, ce qui a engendré presque deux heures de travail supplémentaire en moyenne, et a entraîné une baisse de confiance dans le contenu et la personne qui l’a déployé.

Les conséquences pour l’industrie

L’incident de Deloitte représente une version à grande échelle du travail slop entrant dans un contrat gouvernemental. Ce qui semble poli peut cacher des lacunes, des distorsions ou des hallucinations. À mesure que les modèles génératifs deviennent plus fluides et persuasifs, le fardeau de détecter les erreurs se déplace de plus en plus vers les humains.

La sénatrice Deborah O’Neill a qualifié cet épisode de « problème d’intelligence humaine », soulignant que quiconque envisage de contracter ces entreprises devrait demander qui effectue réellement le travail pour lequel ils paient.

L’importance de la vérification

Si davantage d’organisations adoptent des modèles génératifs sans mettre à jour leurs pipelines de vérification, le volume de l’AI slop pourrait rapidement dépasser leur capacité à le détecter. De nombreuses organisations manquent encore de structures telles que des pistes d’audit, des responsabilités des parties prenantes ou des conseils de révision internes.

Le cœur du problème n’est pas que l’IA soit inutilisable, mais que son utilisation a dépassé le contrôle de qualité. Il est essentiel que le contenu destiné à la livraison aux clients, aux messages publics ou au travail de politique soit audité pour l’exactitude factuelle, la cohérence contextuelle et l’intégrité des sources.

Les recommandations en matière de gouvernance incluent la nécessité d’enregistrer où l’IA est utilisée, d’exiger une approbation humaine et de constituer des conseils de révision pour examiner le contenu généré par l’IA avant sa diffusion. La leçon à tirer de ces cas récents est claire : la technologie avance rapidement, mais les systèmes qui l’entourent sont à la traîne.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...