Parceiro da KPMG Australia Multado por Fraude em Teste de Ética de IA

KPMG Australia: Parceiro Multado por Uso de IA em Teste de Ética

Um parceiro sênior da KPMG Australia foi multado em A$10.000 (aproximadamente US$7.000) por utilizar ferramentas de IA gerativa para trapacear em uma avaliação interna de treinamento sobre a aplicação responsável e ética da tecnologia.

O parceiro, que é um auditor registrado, enviou um manual de treinamento para uma plataforma externa de IA para gerar respostas para uma avaliação obrigatória em julho de 2025, de acordo com um relatório.

Tendência de Trapacear com IA

Este caso se insere em uma tendência maior, com 28 casos de trapaça relacionados à IA identificados na KPMG Australia desde julho. Embora a maioria dos outros casos envolvesse funcionários em níveis gerenciais ou inferiores, a participação do parceiro atraiu atenção significativa.

Como auditor registrado, os parceiros estão sujeitos a requisitos mais rigorosos devido ao seu papel crítico na proteção dos dados financeiros dos clientes.

Quebra de Regras e Consequências

Os parceiros são obrigados a baixar um manual de referência como parte do curso de treinamento sobre o uso ético da IA. O parceiro em questão violou as regras da empresa ao submeter o material de referência a uma ferramenta de IA para responder a uma pergunta.

A violação foi sinalizada em agosto de 2025 pelos sistemas internos de monitoramento de IA da KPMG. Após uma investigação interna, a KPMG impôs uma multa de mais de A$10.000 relacionada à renda futura e pediu ao parceiro que refizesse o exame. O indivíduo relatou o incidente à entidade reguladora, que iniciou sua própria investigação.

Desafios e Medidas Adicionais

O CEO da KPMG Australia afirmou que a empresa enfrenta desafios com a rápida adoção da IA, especialmente em relação ao seu uso em treinamento e testes internos. Desde que introduziu o monitoramento para IA em testes internos em 2024, a empresa encontrou casos de uso indevido.

Como resposta, a KPMG lançou uma campanha de educação abrangente e continua a introduzir novas tecnologias para bloquear o acesso à IA durante os testes. A empresa se compromete a estabelecer um novo padrão de transparência, prometendo relatar trapaças relacionadas à IA em seus resultados anuais e incentivar que os funcionários se autodenunciem em casos de má conduta.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...