KPMG Australia multa a un socio por usar IA para hacer trampa en una prueba de ética de IA
Un socio senior en KPMG Australia fue multado con A$10,000 (aproximadamente US$7,000) por utilizar herramientas de IA generativa para hacer trampa en una evaluación de capacitación interna sobre la aplicación responsable y ética de esta tecnología.
El socio, un auditor registrado, subió un manual de capacitación a una plataforma externa de IA para generar respuestas a una evaluación obligatoria en julio de 2025, según un informe. Este caso surge como parte de una tendencia más amplia que ha identificado 28 instancias de trampas relacionadas con IA en KPMG Australia desde julio. Aunque la mayoría de los otros casos involucraron a personal en niveles gerenciales o inferiores, la participación del socio ha llamado significativamente la atención.
Requisitos y violaciones
Como auditor registrado, los socios están sujetos a requisitos más estrictos debido a su papel crítico en la protección de los datos financieros de los clientes. Según un informe, se requiere que los socios descarguen un manual de referencia como parte del curso de capacitación sobre el uso ético de la IA. El socio en cuestión rompió las reglas de la empresa al someter el material de referencia a una herramienta de IA para responder a una pregunta.
La violación fue señalada en agosto de 2025 por herramientas internas de monitoreo de IA de la empresa. KPMG ha mejorado sus procesos para detectar trampas relacionadas con IA tras una serie de conductas indebidas en pruebas internas entre 2016 y 2020.
Consecuencias y medidas adicionales
Después de una investigación interna, KPMG impuso una multa de más de A$10,000 en términos de ingresos futuros, y se pidió al socio que repitiera el examen. El individuo se autoinformó sobre el incidente a una institución profesional, que ha iniciado su propia investigación.
El director ejecutivo de KPMG Australia comentó que la firma enfrenta desafíos debido a la rápida adopción de la IA, especialmente en su uso en capacitación y pruebas internas. Afirmó que es difícil controlar este fenómeno, dado el rápido ritmo de aceptación tecnológica en la sociedad. Desde que introdujeron el monitoreo para la IA en pruebas internas en 2024, se han encontrado casos de uso indebido.
Iniciativas para la transparencia
KPMG tiene como objetivo establecer un nuevo estándar de transparencia al comprometerse a informar sobre trampas relacionadas con IA en sus resultados anuales y verificar que el personal se autoinforme sobre conductas indebidas a los organismos profesionales.