Compartir:

Los nuevos modelos de crisis corporativa e institucional en el mundo digital ya forman capítulos históricos en los anales de la comunicación estratégica.  Un caso reciente, digno de análisis, es el de la filial australiana de Deloitte, envuelta en una controversia por el uso irresponsable de herramientas de IA con impacto reputacional.

El incidente, que eclosionó en este 2025, involucró un informe gubernamental plagado de errores generados por IA, conocidos como “alucinaciones”. En este escrito, exploramos los detalles de esta crisis, evaluamos si Deloitte la abordó con transparencia, revisamos casos similares y concluimos con una reflexión sobre el rol de la IA en el entorno profesional.

El inicio del problema

Todo comenzó en diciembre de 2024, cuando el Departamento de Empleo y Relaciones Laborales (DEWR) de Australia contrató a Deloitte por aproximadamente 440.000 dólares australianos para revisar el “Targeted Compliance Framework”, un sistema informático que automatiza penalizaciones en programas de bienestar social. 

El informe, entregado en julio de 2025 y publicado en agosto, contenía graves inexactitudes, como citas de investigaciones académicas inexistentes, referencias judiciales fabricadas y atribuciones falsas a expertos reales, como la profesora Lisa Burton Crawford de la Universidad de Sidney. 

Estos errores fueron identificados por el académico Dr. Christopher Rudge, quien los atribuyó a “alucinaciones” típicas de modelos de IA generativa, como el Azure OpenAI GPT-4,  utilizado por Deloitte.

Inicialmente, Deloitte no reveló el uso de IA en el documento original, una falta de honestidad y un error táctico, casi infantil en una firma de ese nivel.  Sin embargo, tras la exposición pública, dio a conocer una versión corregida el 4 de octubre de 2025, en la que admitió el empleo de la herramienta, eliminó las referencias erróneas y reescribió las  secciones afectadas. 

Además, acordó con  el cliente reembolsar la cuota final del contrato, aunque el monto exacto aún no se ha divulgado por completo. Críticos como la senadora Barbara Pocock, del Partido Verde, han calificado esto como un “abuso inapropiado” del uso de la IA. La legisladora exigió un reembolso total y comparó el hecho con errores de un estudiante novato.  Este escándalo cuestiona la fiabilidad de Deloitte en contratos gubernamentales y a la vez resalta los riesgos de depender de IA sin supervisión adecuada.

¿Deloitte fue honesta?

En términos de comunicación de crisis, Deloitte mostró un enfoque mixto, pero en general honesto. Siguiendo principios clásicos de gestión de crisis —como los propuestos por expertos como Timothy Coombs en su modelo de Situational Crisis Communication Theory—, la empresa optó por una estrategia de “reconstrucción” al admitir el error rápidamente.

Publicó  la versión corregida del informe, confirmó el uso de IA y enfatizó que las conclusiones principales (como problemas de trazabilidad legal y defectos en el sistema IT) permanecían válidas. El reembolso parcial demuestra un ejercicio de “accountability”, evitando una escalada mayor.

Sin embargo, hay críticas válidas: la falta de transparencia inicial sobre el uso de IA podría interpretarse como una omisión intencional, lo que erosionó la confianza pública. Políticos como la senadora Deborah O’Neill han señalado un “problema de inteligencia humana” en Deloitte, exigiendo mayor verificación en futuros contratos. 

A pesar de esto, la respuesta de Deloitte fue proactiva comparada con casos donde empresas niegan o minimizan errores, lo que sugiere un compromiso genuino con la rectificación. En un contexto donde la reputación es clave, esta honestidad relativa podría ayudar a mitigar daños a largo plazo.

Es importante tomar en cuenta que Deloitte promueve activamente la “IA responsable” y ha invertido en alianzas con Anthropic para expandir herramientas como Claude en su plantilla global. Aun así, cayó en un error grave.

Otras crisis similares

Sobre el uso de IA sin supervisión humana, este no es un caso aislado. En el ámbito legal, se han documentado más de 120 instancias en cortes estadounidenses donde abogados usaron IA para generar citas jurisprudenciales falsas, resultando en multas y sanciones. 

Por ejemplo, en el caso The People vs. Raziel Ruiz Alvarez (California, octubre 2025), un abogado fue multado con 1,500 dólares por referencias inventadas. Otro incidente notable ocurrió en Puerto Rico Soccer League vs. Federación Puertorriqueña de Futbol (septiembre 2025), con 6 casos fabricados y una sanción de 24,492 dólares.

En el sector público, los Centros para el Control y la Prevención de Enfermedades (CDC) de EE.UU. enfrentaron críticas en junio de 2025 por un informe sobre vacunas que citaba un estudio inexistente de 2008 sobre timerosal y autismo. Igualmente, el informe “Make America Healthy Again” (MAHA) de la Casa Blanca, en mayo de 2025, incluyó referencias falsas a estudios sobre enfermedades mentales, posiblemente generadas por IA. 

En el periodismo, el Chicago Sun-Times publicó en mayo de 2025 una lista de libros de verano con títulos inventados atribuidos a autores reales, lo que llevó a una disculpa pública. Estos ejemplos ilustran un patrón: la IA genera “alucinaciones” en contextos de alto perfil, como informes gubernamentales o legales, lo que subraya la necesidad de verificación humana.

No satanizar la IA

A pesar de estos tropiezos, no se puede satanizar el uso de la IA. Estos errores detectados no invalidan su potencial, al contrario, fortalecen la idea de que la IA debe ser vista como una asistente, no como un reemplazo. En el caso de Deloitte, las “alucinaciones” fueron identificadas y corregidas por humanos, demostrando que nuestra inteligencia —con su capacidad para contextualizar, verificar y juzgar éticamente— sigue siendo superior. 

La IA acelera procesos, pero es el ser humano quien asegura la precisión y la responsabilidad. En lugar de rechazarla, las empresas deben invertir en protocolos de supervisión, como revisiones dobles y transparencia obligatoria. 

Al final, incidentes como este recuerdan que la verdadera innovación surge de una simbiosis entre tecnología y humanidad, donde los errores se convierten en lecciones para un futuro más inteligente y ético. En Mediáticos abogamos por un enfoque equilibrado: abrazar la IA con ojos abiertos, reconociendo que el ingenio humano es el que marca la diferencia.

El autor es periodista, consultor en comunicación y MBA en Dirección de Proyectos con Inteligencia Artificial.

Avenida Bolívar 195
Torre Corporativa Bolívar
Suite 505. La Julia, Distrito Nacional, República Dominicana

Mediáticos © 2025
Design by Strategium
Conoce nuestro nuevo recurso: Cátedras de Comunicación Vol. 1: Estrategias
This is default text for notification bar