KPMG Australia: Parceiro Multado por Uso de IA em Teste de Ética
Um parceiro sênior da KPMG Australia foi multado em A$10.000 (aproximadamente US$7.000) por utilizar ferramentas de IA gerativa para trapacear em uma avaliação interna de treinamento sobre a aplicação responsável e ética da tecnologia.
O parceiro, que é um auditor registrado, enviou um manual de treinamento para uma plataforma externa de IA para gerar respostas para uma avaliação obrigatória em julho de 2025, de acordo com um relatório.
Tendência de Trapacear com IA
Este caso se insere em uma tendência maior, com 28 casos de trapaça relacionados à IA identificados na KPMG Australia desde julho. Embora a maioria dos outros casos envolvesse funcionários em níveis gerenciais ou inferiores, a participação do parceiro atraiu atenção significativa.
Como auditor registrado, os parceiros estão sujeitos a requisitos mais rigorosos devido ao seu papel crítico na proteção dos dados financeiros dos clientes.
Quebra de Regras e Consequências
Os parceiros são obrigados a baixar um manual de referência como parte do curso de treinamento sobre o uso ético da IA. O parceiro em questão violou as regras da empresa ao submeter o material de referência a uma ferramenta de IA para responder a uma pergunta.
A violação foi sinalizada em agosto de 2025 pelos sistemas internos de monitoramento de IA da KPMG. Após uma investigação interna, a KPMG impôs uma multa de mais de A$10.000 relacionada à renda futura e pediu ao parceiro que refizesse o exame. O indivíduo relatou o incidente à entidade reguladora, que iniciou sua própria investigação.
Desafios e Medidas Adicionais
O CEO da KPMG Australia afirmou que a empresa enfrenta desafios com a rápida adoção da IA, especialmente em relação ao seu uso em treinamento e testes internos. Desde que introduziu o monitoramento para IA em testes internos em 2024, a empresa encontrou casos de uso indevido.
Como resposta, a KPMG lançou uma campanha de educação abrangente e continua a introduzir novas tecnologias para bloquear o acesso à IA durante os testes. A empresa se compromete a estabelecer um novo padrão de transparência, prometendo relatar trapaças relacionadas à IA em seus resultados anuais e incentivar que os funcionários se autodenunciem em casos de má conduta.