KPMG Australia : Un partenaire sanctionné pour avoir utilisé l’IA lors d’un test d’éthique
Un partenaire senior de KPMG Australia a été condamné à une amende de 10 000 A$ (environ 7 000 US$) pour avoir utilisé des outils d’IA générative afin de tricher lors d’une évaluation interne sur l’application responsable et éthique de cette technologie.
Ce partenaire, auditeur d’entreprise enregistré, a téléchargé un manuel de formation sur une plateforme d’IA externe pour générer des réponses à une évaluation obligatoire en juillet 2025, selon un rapport. Ce cas s’inscrit dans une tendance plus large, avec 28 cas de tricherie liée à l’IA identifiés chez KPMG Australia depuis juillet. Bien que la plupart des autres cas aient concerné du personnel à des niveaux managériaux ou inférieurs, l’implication d’un partenaire a suscité une attention particulière.
Contexte et implications
En tant qu’auditeurs d’entreprise enregistrés, les partenaires sont soumis à des exigences plus strictes en raison de leur rôle crucial dans la protection des données financières des clients. Selon les rapports, les partenaires doivent télécharger un manuel de référence dans le cadre de la formation sur l’utilisation éthique de l’IA. Le partenaire concerné a enfreint les règles de l’entreprise en soumettant le matériel de référence à un outil d’IA pour répondre à une question.
La violation a été signalée en août 2025 par les outils de surveillance internes de KPMG. En réponse à des manquements généralisés lors de tests internes entre 2016 et 2020, KPMG a amélioré ses processus pour détecter la tricherie liée à l’IA. Après une enquête interne, l’entreprise a imposé une amende de plus de 10 000 A$ en termes de revenus futurs et a demandé au partenaire de repasser l’examen. Ce dernier a également autofiché l’incident à une entité de comptabilité, qui a lancé sa propre enquête.
Réactions et mesures futures
Le directeur général de KPMG Australia a déclaré que l’entreprise est confrontée à des défis en raison de l’adoption rapide de l’IA, notamment concernant son utilisation dans la formation et les tests internes. Il a noté que dès que la surveillance de l’IA pour les tests internes a été introduite en 2024, des cas d’utilisation non conformes ont été découverts. L’entreprise a suivi avec une campagne d’éducation significative et continue d’introduire de nouvelles technologies pour bloquer l’accès à l’IA lors des tests.
KPMG s’engage à établir une nouvelle norme de transparence en promettant de signaler la tricherie liée à l’IA dans ses résultats annuels et en vérifiant que le personnel se déclare pour des comportements non conformes auprès des organismes professionnels.