KPMG Australia multa a un socio por hacer trampa usando IA en prueba de ética

KPMG Australia multa a un socio por usar IA para hacer trampa en una prueba de ética de IA

Un socio senior en KPMG Australia fue multado con A$10,000 (aproximadamente US$7,000) por utilizar herramientas de IA generativa para hacer trampa en una evaluación de capacitación interna sobre la aplicación responsable y ética de esta tecnología.

El socio, un auditor registrado, subió un manual de capacitación a una plataforma externa de IA para generar respuestas a una evaluación obligatoria en julio de 2025, según un informe. Este caso surge como parte de una tendencia más amplia que ha identificado 28 instancias de trampas relacionadas con IA en KPMG Australia desde julio. Aunque la mayoría de los otros casos involucraron a personal en niveles gerenciales o inferiores, la participación del socio ha llamado significativamente la atención.

Requisitos y violaciones

Como auditor registrado, los socios están sujetos a requisitos más estrictos debido a su papel crítico en la protección de los datos financieros de los clientes. Según un informe, se requiere que los socios descarguen un manual de referencia como parte del curso de capacitación sobre el uso ético de la IA. El socio en cuestión rompió las reglas de la empresa al someter el material de referencia a una herramienta de IA para responder a una pregunta.

La violación fue señalada en agosto de 2025 por herramientas internas de monitoreo de IA de la empresa. KPMG ha mejorado sus procesos para detectar trampas relacionadas con IA tras una serie de conductas indebidas en pruebas internas entre 2016 y 2020.

Consecuencias y medidas adicionales

Después de una investigación interna, KPMG impuso una multa de más de A$10,000 en términos de ingresos futuros, y se pidió al socio que repitiera el examen. El individuo se autoinformó sobre el incidente a una institución profesional, que ha iniciado su propia investigación.

El director ejecutivo de KPMG Australia comentó que la firma enfrenta desafíos debido a la rápida adopción de la IA, especialmente en su uso en capacitación y pruebas internas. Afirmó que es difícil controlar este fenómeno, dado el rápido ritmo de aceptación tecnológica en la sociedad. Desde que introdujeron el monitoreo para la IA en pruebas internas en 2024, se han encontrado casos de uso indebido.

Iniciativas para la transparencia

KPMG tiene como objetivo establecer un nuevo estándar de transparencia al comprometerse a informar sobre trampas relacionadas con IA en sus resultados anuales y verificar que el personal se autoinforme sobre conductas indebidas a los organismos profesionales.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...