Desafíos de la IA en la gobernanza empresarial

Deloitte y el Desliz de $440k en IA: Un Problema de Supervisión

Recientemente, se han planteado preocupaciones sobre un informe producido por Deloitte para el gobierno federal australiano, el cual contenía material que no podía ser rastreado a fuentes reales. Se identificaron múltiples instancias de citas ficticias y frases atribuidas incorrectamente, incluyendo referencias a documentos y fallos judiciales que simplemente no existen, así como una cita supuestamente de la Justicia Davies que no aparece en el fallo relevante.

Este incidente ha llevado a Deloitte a admitir que utilizó IA generativa en la elaboración del informe, lo que resultó en la decisión de reembolsar parcialmente al gobierno y emitir correcciones.

La Normalización del «AI Slop»

Este caso no es aislado, sino que ejemplifica un problema creciente en el uso de la IA en contextos profesionales: la normalización del «AI slop», es decir, contenido generado por máquinas que, aunque pulido en la superficie, es defectuoso en su interior y que se filtra porque parece creíble. El incidente de Deloitte debe servir como una advertencia: la capacidad sin supervisión es una responsabilidad.

Los académicos han señalado que varias de las obras citadas en el informe de Deloitte no existen, y que las citas legales estaban distorsionadas o fabricadas. Aunque Deloitte defendió sus hallazgos, reconoció la necesidad de corregir las referencias. La versión revisada del informe incluyó una divulgación sobre la asistencia de IA a través de Azure OpenAI GPT-4o.

Controversia del Modelo Sora 2 de OpenAI

En otro ámbito del uso de la IA, el modelo Sora 2 de OpenAI ha reavivado debates sobre cómo los medios generativos ingresan al discurso público. Esta herramienta permite a los usuarios generar videos cortos a partir de indicaciones, potencialmente incluyendo rostros y voces subidos. Algunos de sus primeros resultados fueron confundidos por los espectadores como material real, lo que provocó críticas sobre el etiquetado, la propiedad intelectual y la frontera entre contenido sintético y auténtico.

El hilo común entre el desliz de Deloitte y la controversia de Sora 2 no es un fallo técnico, sino una falta institucional para gobernar el trabajo generado por IA. En el caso de Deloitte, las afirmaciones generadas por IA llegaron a un entregable para un cliente sin la verificación adecuada. En el caso de Sora 2, los medios sintéticos ya están inundando los feeds públicos sin una clara atribución o responsabilidad.

El Costo del Trabajo «Slop»

Investigaciones recientes sobre el uso de la IA en el lugar de trabajo cuantifican su costo. Un estudio de Harvard Business Review (en colaboración con BetterUp Labs) encontró que aproximadamente el 40% de los empleados encuestados habían encontrado contenido generado por IA que requería edición o corrección, consumiendo en promedio casi dos horas de trabajo adicional y reportando una menor confianza tanto en el contenido como en la persona que lo utilizó. Los investigadores se refirieron a esto como un «impuesto invisible a la productividad».

El incidente de Deloitte es una versión ampliada del trabajo «slop» que entra en un contrato gubernamental, donde lo que parece pulido puede ocultar brechas, distorsiones o alucinaciones evidentes. A medida que los modelos generativos se vuelven más fluidos y persuasivos, la carga recae cada vez más en los humanos para detectar lo que las máquinas han errado.

Desafíos en la Gobernanza de la IA

La carga no se distribuye equitativamente. En el caso de Deloitte, la senadora Labor Deborah O’Neill calificó el episodio como un «problema de inteligencia humana», instando a que «cualquiera que busque contratar a estas firmas debería preguntar exactamente quién está realizando el trabajo por el que están pagando y asegurarse de que esa experiencia no involucre el uso de IA sin verificar».

Si más organizaciones adoptan modelos generativos sin actualizar sus canales de verificación, el volumen de «AI slop» podría superar su capacidad para detectarlo. Muchos informes sobre gobernanza de IA indican que muchas organizaciones aún carecen de estructuras como auditorías, responsabilidad de las partes interesadas o comités de revisión interna. Solo una fracción de las empresas tiene mecanismos de supervisión a nivel empresarial; una encuesta sugiere que solo el 18% de las organizaciones tiene un consejo centralizado autorizado para tomar decisiones sobre la gobernanza responsable de la IA.

Conclusión

El problema central no es que la IA sea inutilizable, sino que su uso ha superado el control de calidad. En la práctica, muchas organizaciones enfatizan la concesión de acceso a herramientas generativas (fomentando la experimentación) en lugar de establecer protocolos rigurosos para la verificación o divulgación. Estos herramientas se están desplegando cada vez más en contextos públicos o de atención al cliente sin una disciplina paralela de revisión.

Para mitigar ese riesgo, el contenido destinado a la entrega al cliente, mensajes públicos o trabajos de políticas debe ser auditado por su precisión fáctica, consistencia contextual e integridad de las fuentes. La literatura de gobernanza recomienda registrar dónde se utiliza la IA, requerir la aprobación humana y construir juntas o comités de revisión para examinar el contenido generado por IA antes de su publicación. Sin embargo, claramente, esto no ha sucedido lo suficientemente rápido. La lección de estos casos recientes es clara: la tecnología puede estar avanzando rápidamente, pero los sistemas que la rodean están quedando atrás.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...