Quand l’intelligence artificielle s’invite à la fête des consultants, cela peut coûter cher… Très cher. Et parfois, c’est carrément l’État australien qui se retrouve à demander le remboursement de la note ! Scandale, hallucinations numériques et citations sorties du chapeau : retour sur une histoire rocambolesque où le sérieux a pris la poudre d’escampette…

L’affaire : un rapport à 250 000 euros, bardé d’inventions

Le cabinet Deloitte, grand nom du conseil, a décroché un beau contrat : réaliser un rapport pour le gouvernement australien. Sujet? Rien de moins que l’automatisation des pénalités dans le système d’aide sociale du pays — un sujet qui exige expertise et rigueur, tant les enjeux sont lourds. Normal, donc, que le Department of Employment and Workplace Relations (le ministère du Travail, en version locale) ait mis la main à la poche : 440 000 dollars australiens, soit un joli chèque d’environ 251 000 euros.

Un travail de fond donc, attendu… mais après publication, patatras ! Un directeur du département de droit de la santé à l’université de Sydney s’y plonge et s’étrangle : le rapport pullule de citations louches, issues de publications jamais vues sur Terre. Certaines font carrément référence à des recherches entières d’une professeure — elle, bien réelle — qui n’a pourtant jamais travaillé sur le sujet abordé. C’est l’Australian Financial Review qui lève le lièvre.

Quand l’IA remplace l’humain (mais fait n’importe quoi…)

La vérité qui émerge est pour le moins embarrassante : Deloitte, plutôt que de mobiliser ses équipes pour un long labeur, a sollicité ChatGPT ou une IA voisine pour poncer l’intégralité du document… sans vraiment mettre les mains dans le cambouis derrière. Une facture de consultant et un service d’assistant conversationnel : ça pique !

Quand le scandale éclate, c’est l’effervescence. Deloitte, un brin penaud, et le ministère du Travail réagissent : il y aura bien une version corrigée du rapport. Mais rassurez-vous, « un petit nombre de corrections pour des références et des notes de bas de page », précisent-ils — air de rien. Le rapport revisité passe ainsi à 273 pages, et la communication officielle signale l’utilisation d’une « chaîne d’outils basée sur un modèle de langage génératif (Azure OpenAI GPT-4o) ».

Des corrections “maison”… et un remboursement partiel ?

  • Toutes les références bidon et citations inventées sont finalement supprimées du rapport.
  • Deloitte annonce qu’il va rembourser « la version finale » du contrat. De quelle partie exacte de la somme s’agit-il ? Mystère : aucun détail ne filtre sur le montant précis de la ristourne consentie.

Tout ce beau monde tente de minimiser la débâcle. Oui, les passages bidonnés sont retirés, mais le contenu de « l’audit indépendant est préservé », clame le ministère du Travail, impassible devant la tempête. Conséquence ? Les recommandations du rapport restent en vigueur, même si elles reposaient sur des « hallucinations » générées par IA. Fermez le ban !

Le mot de la fin : quand la machine s’en mêle, l’humain doit veiller…

Le bilan ? Une douloureuse piqûre de rappel : confier les rênes d’une expertise humaine à l’intelligence artificielle, sans contrôle, peut donner naissance à des absurdités… et à de jolis factures injustifiées ! S’il reste une leçon à retenir de cet épisode : l’innovation, c’est bien, mais la vérification (vraiment faite par des vrais gens, cette fois), c’est encore mieux. Et si vous recevez un rapport de 273 pages rempli d’érudition improbable, pensez à vérifier que la bibliographie n’a pas été rêvée par une IA trop enthousiaste. Voilà qui évitera de devoir rembourser 250 000 euros pour hallucinations collectives !