La débâcle de Deloitte : quand l’IA précède la gouvernance

A magnifying glass symbolizing the need for closer scrutiny and oversight in AI implementations.

Deloitte et l’impact de l’IA : Une leçon sur la gouvernance

Il y a environ un mois, des observateurs ont commencé à exprimer des inquiétudes concernant un rapport produit par Deloitte pour le gouvernement fédéral australien. Ce rapport contenait des éléments qui ne pouvaient être retracés à des sources réelles. Plusieurs cas de citations fictives et de citations mal attribuées ont été signalés, notamment des références à des travaux et des décisions judiciaires qui n’existent tout simplement pas.

Deloitte a finalement admis avoir utilisé de l’IA générative dans la production de ce rapport, ce qui a conduit à un remboursement partiel au gouvernement et à la publication de corrections.

Le phénomène de l’« AI Slop »

Ce cas n’est pas isolé ; il illustre un problème plus profond et croissant concernant l’utilisation de l’IA dans des contextes professionnels : la normalisation de ce que l’on appelle « AI slop », c’est-à-dire du contenu généré par machine qui semble poli en surface mais qui est en réalité défectueux.

Dans la version originale du rapport de Deloitte, des universitaires ont noté que plusieurs des travaux cités par des chercheurs de l’Université de Sydney et d’autres institutions n’existent pas, et que les citations juridiques étaient déformées ou fabriquées. Bien que Deloitte ait défendu ses résultats, l’entreprise a reconnu la nécessité de corriger les références.

Le besoin de gouvernance

Le problème commun entre l’incident de Deloitte et la controverse autour du modèle Sora 2 d’OpenAI n’est pas une défaillance technique, mais plutôt un échec institutionnel à gouverner le travail généré par l’IA. Dans le cas de Deloitte, des affirmations générées par l’IA ont été intégrées dans une livraison client sans vérification suffisante.

Ce phénomène de « workslop » — contenu généré par l’IA qui semble terminé mais nécessite un travail supplémentaire pour être corrigé — a des conséquences significatives sur la productivité. Selon une étude du Harvard Business Review, environ 40 % des employés interrogés ont rencontré du contenu généré par l’IA nécessitant des corrections, ce qui a engendré presque deux heures de travail supplémentaire en moyenne, et a entraîné une baisse de confiance dans le contenu et la personne qui l’a déployé.

Les conséquences pour l’industrie

L’incident de Deloitte représente une version à grande échelle du travail slop entrant dans un contrat gouvernemental. Ce qui semble poli peut cacher des lacunes, des distorsions ou des hallucinations. À mesure que les modèles génératifs deviennent plus fluides et persuasifs, le fardeau de détecter les erreurs se déplace de plus en plus vers les humains.

La sénatrice Deborah O’Neill a qualifié cet épisode de « problème d’intelligence humaine », soulignant que quiconque envisage de contracter ces entreprises devrait demander qui effectue réellement le travail pour lequel ils paient.

L’importance de la vérification

Si davantage d’organisations adoptent des modèles génératifs sans mettre à jour leurs pipelines de vérification, le volume de l’AI slop pourrait rapidement dépasser leur capacité à le détecter. De nombreuses organisations manquent encore de structures telles que des pistes d’audit, des responsabilités des parties prenantes ou des conseils de révision internes.

Le cœur du problème n’est pas que l’IA soit inutilisable, mais que son utilisation a dépassé le contrôle de qualité. Il est essentiel que le contenu destiné à la livraison aux clients, aux messages publics ou au travail de politique soit audité pour l’exactitude factuelle, la cohérence contextuelle et l’intégrité des sources.

Les recommandations en matière de gouvernance incluent la nécessité d’enregistrer où l’IA est utilisée, d’exiger une approbation humaine et de constituer des conseils de révision pour examiner le contenu généré par l’IA avant sa diffusion. La leçon à tirer de ces cas récents est claire : la technologie avance rapidement, mais les systèmes qui l’entourent sont à la traîne.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...