Partenaire de KPMG Australia sanctionné pour tricherie avec l’IA lors d’un test éthique

A shattered mirror reflecting a digital circuit board

KPMG Australia : Un partenaire sanctionné pour avoir utilisé l’IA lors d’un test d’éthique

Un partenaire senior de KPMG Australia a été condamné à une amende de 10 000 A$ (environ 7 000 US$) pour avoir utilisé des outils d’IA générative afin de tricher lors d’une évaluation interne sur l’application responsable et éthique de cette technologie.

Ce partenaire, auditeur d’entreprise enregistré, a téléchargé un manuel de formation sur une plateforme d’IA externe pour générer des réponses à une évaluation obligatoire en juillet 2025, selon un rapport. Ce cas s’inscrit dans une tendance plus large, avec 28 cas de tricherie liée à l’IA identifiés chez KPMG Australia depuis juillet. Bien que la plupart des autres cas aient concerné du personnel à des niveaux managériaux ou inférieurs, l’implication d’un partenaire a suscité une attention particulière.

Contexte et implications

En tant qu’auditeurs d’entreprise enregistrés, les partenaires sont soumis à des exigences plus strictes en raison de leur rôle crucial dans la protection des données financières des clients. Selon les rapports, les partenaires doivent télécharger un manuel de référence dans le cadre de la formation sur l’utilisation éthique de l’IA. Le partenaire concerné a enfreint les règles de l’entreprise en soumettant le matériel de référence à un outil d’IA pour répondre à une question.

La violation a été signalée en août 2025 par les outils de surveillance internes de KPMG. En réponse à des manquements généralisés lors de tests internes entre 2016 et 2020, KPMG a amélioré ses processus pour détecter la tricherie liée à l’IA. Après une enquête interne, l’entreprise a imposé une amende de plus de 10 000 A$ en termes de revenus futurs et a demandé au partenaire de repasser l’examen. Ce dernier a également autofiché l’incident à une entité de comptabilité, qui a lancé sa propre enquête.

Réactions et mesures futures

Le directeur général de KPMG Australia a déclaré que l’entreprise est confrontée à des défis en raison de l’adoption rapide de l’IA, notamment concernant son utilisation dans la formation et les tests internes. Il a noté que dès que la surveillance de l’IA pour les tests internes a été introduite en 2024, des cas d’utilisation non conformes ont été découverts. L’entreprise a suivi avec une campagne d’éducation significative et continue d’introduire de nouvelles technologies pour bloquer l’accès à l’IA lors des tests.

KPMG s’engage à établir une nouvelle norme de transparence en promettant de signaler la tricherie liée à l’IA dans ses résultats annuels et en vérifiant que le personnel se déclare pour des comportements non conformes auprès des organismes professionnels.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...