Un informe de 237 páginas encargado por el gobierno australiano, pagado por AU$440.000, fue revisado y parcialmente reembolsado tras descubrirse citas judiciales inventadas y referencias académicas inexistentes. El caso abre un debate sobre verificación, responsabilidad profesional y uso de modelos generativos como Azure OpenAI.
Deloitte Australia acordó devolver la última cuota de un contrato por AU$440.000 (≈ U$S 290.000) después de que un informe de 237 páginas preparado para el Department of Employment and Workplace Relations fuera señalado por contener múltiples errores, incluidos pasajes y referencias que no existen. El investigador Chris Rudge, de la University of Sydney, fue quien alertó sobre la presencia de hasta 20 errores en la primera versión y señaló que trabajos de colegas habían sido citados como “tokens de legitimidad” sin haber sido leídos.
El trabajo, encargado como una revisión de los sistemas automatizados de penalización del sistema de bienestar, fue originalmente publicado en julio y actualizado luego de las observaciones. La versión corregida incluyó una revelación: partes del informe habían sido redactadas con un sistema generativo, Azure OpenAI. Entre las correcciones se eliminaron citas atribuidas a un juez federal que no existían y se sacaron referencias académicas inventadas.
Rudge relató que el primer error que le saltó a la vista fue una supuesta obra de Lisa Burton Crawford, profesora de la University of Sydney, que nunca existió: «Instantáneamente supe que o la IA la había alucinó o era el secreto mejor guardado del mundo, porque nunca había oído hablar del libro y sonaba ridículo».
Desde el Departamento, se indicó que, tras la revisión, la “sustancia” del informe se mantuvo y que no hubo cambios en las recomendaciones. Deloitte, por su parte, dijo que “el asunto ha sido resuelto directamente con el cliente” y confirmó que revisó el documento y que “algunas notas a pie de página y referencias eran incorrectas”; la firma no respondió a preguntas públicas sobre si esos errores fueron causados directamente por la IA.
La reacción política fue dura: la senadora Barbara Pocock (Australian Greens) dijo que Deloitte “utilizó mal la IA y la usó de forma inapropiada: citaron mal a un juez y usaron referencias inexistentes”, y pidió el reembolso total de los AU$440.000. Pocock calificó las equivocaciones como errores que “a un estudiante de primer año lo pondrían en serios problemas”.
Para empresas y gobiernos, el episodio plantea lecciones claras. Primero: la adopción de herramientas generativas requiere controles explícitos de verificación de fuentes y rastreabilidad de los procesos editoriales. Segundo: los contratos públicos deben incluir cláusulas sobre el uso de IA, responsabilidad por errores y auditorías independientes de contenido técnico y legal. Y tercero: la “velocidad” de generar entregables no puede reemplazar la diligencia profesional cuando están en juego decisiones regulatorias o la interpretación del derecho, tal como advierten académicos y legisladores.
En un momento en que firmas profesionales y consultoras incorporan IA para escalar servicios, el caso Deloitte funciona como un recordatorio: la automatización generativa puede acelerar producción, pero sin controles humanos rigurosos y cláusulas contractuales claras puede convertir un entregable caro en un problema reputacional y financiero. Para los ejecutivos que contratan proveedores, la recomendación es exigir transparencia sobre métodos, pruebas de verificación independientes y disposiciones contractuales que contemplen la trazabilidad y la responsabilidad por errores.