Un rapport à 290.000 dollars signé par… une IA? La question, aussi absurde soit-elle, est au cœur d’un scandale qui a secoué l’Australie et devrait servir d’électrochoc à tous les dirigeants d’entreprise. En confiant une partie de la rédaction d’un rapport crucial pour le gouvernement à une intelligence artificielle, sans la supervision la plus élémentaire, le géant du conseil Deloitte n’a pas seulement commis une faute professionnelle. Il a exposé au grand jour la dangereuse illusion de maîtrise qui règne dans nos organisations.
Cette affaire n’est pas une anecdote. Elle est le symptôme d’une pathologie d’entreprise généralisée : une adoption frénétique et opportuniste de l’IA, menée sans stratégie, sans formation et sans une once de compréhension critique de ses limites. Une course à l’efficacité qui nous rend collectivement plus stupides.
Les faits, bruts et accablants
Revenons sur cette tragi-comédie technologique. En décembre 2024, le gouvernement australien mandate Deloitte pour une mission sensible : auditer un système informatique qui automatise les sanctions pour les demandeurs d’emploi. Coût du contrat : 440.000 dollars australiens (environ 270.000 euros). Le rapport est publié en juillet 2025.
Le scandale éclate quelques semaines plus tard, non pas grâce aux contrôles internes de Deloitte ou du gouvernement, mais par la vigilance d’un universitaire, le Dr Christopher Rudge. Il découvre une vingtaine d’erreurs grossières : des références à des études académiques qui n’existent pas, des citations d’experts fantômes, et, plus grave encore, une citation entièrement fabriquée et attribuée à un juge de la Cour fédérale dans une affaire emblématique.
Les entreprises du monde entier se ruent sur l’IA, mais une étude du MIT révèle que 95 % de leurs projets pilotes échouent à produire un retour sur investissement mesurable.
Acculé, Deloitte publie une version corrigée et admet, dans une discrète annexe, avoir utilisé un modèle d’IA (Azure OpenAI GPT-4o). La sanction ? Un remboursement partiel et des déclarations laconiques. La classe politique, elle, ne décolère pas. La sénatrice Deborah O’Neill diagnostique avec une ironie mordante un « problème d’intelligence humaine » chez Deloitte, tandis que sa consœur Barbara Pocock juge le travail indigne d’un « étudiant de première année ».
Une erreur isolée ? Non, un symptôme systémique
Il serait confortable de classer l’affaire Deloitte au rang des accidents de parcours. Ce serait une grave erreur. Ce fiasco n’est que la partie émergée d’un iceberg de négligence managériale. Les entreprises du monde entier se ruent sur l’IA, mais une étude du MIT révèle que 95 % de leurs projets pilotes échouent à produire un retour sur investissement mesurable. Le paradoxe de la GenAI , théorisé par McKinsey, est là : des avancées technologiques fulgurantes pour des gains de productivité dérisoires, voire négatifs.
Les exemples de cette impréparation se multiplient. Aux États-Unis, un avocat a été sanctionné pour avoir cité devant un tribunal de fausses jurisprudences inventées par ChatGPT. Au Canada, la compagnie Air Canada a été condamnée à indemniser un client à qui son chatbot avait promis une politique de remboursement inexistante. La justice a été claire : l’entreprise est responsable des mensonges de son IA.
Le point commun de ces échecs est toujours le même : une confusion fondamentale entre l’outil et le processus. Les entreprises achètent des licences ChatGPT ou Copilot comme elles achèteraient une nouvelle imprimante, en pensant acquérir une compétence. Elles déploient un produit sans transformer le processus humain de vérification, de validation et de responsabilité qui doit l’encadrer.
L’IA n’est pas le problème, notre paresse l’est
Soyons clairs : la faute ne revient pas à l’intelligence artificielle. Un modèle de langage est un puissant générateur de texte probabiliste, pas une source de vérité. Il est conçu pour produire des phrases plausibles, pas des faits exacts. Le laisser fonctionner sans supervision humaine rigoureuse sur un sujet aussi critique qu’un audit gouvernemental n’est pas une erreur technologique, c’est une faillite intellectuelle et éthique.
Le vrai mal qui ronge nos organisations est cette illusion de maîtrise. Des dirigeants, dont 58 % n’ont reçu aucune formation en IA, encouragent leurs équipes à utiliser des outils dont ils ne comprennent ni le fonctionnement ni les risques. Près de la moitié des entreprises n’ont aucune politique d’usage de l’IA. Ce vide stratégique et pédagogique crée un appel d’air pour le « workslop » : ce contenu généré par IA qui a l’apparence du travail bien fait, mais qui est vide de substance, voire truffé d’erreurs. Le rapport de Deloitte en est l’exemple parfait : un workslop à 270.000 euros.
Cette crise est particulièrement existentielle pour les métiers du conseil, dont la valeur ajoutée repose sur l’expertise et la confiance. Comment un cabinet peut-il vendre à prix d’or des conseils sur l’IA tout en étant incapable de gérer ses propres outils? La question que chaque client est désormais en droit de poser est brutale : est-ce que je paie pour l’intelligence d’un expert ou pour les hallucinations d’un algorithme?
Pour une culture de la compétence IA
Il ne s’agit pas de rejeter l’IA, mais d’arrêter de la traiter avec une naïveté coupable. La solution n’est pas technique, elle est humaine. Elle réside dans un investissement massif et systématique dans la formation et l’acculturation à l’intelligence artificielle, à tous les échelons de l’entreprise.
Les dirigeants doivent être formés aux implications stratégiques et éthiques. Les managers doivent apprendre à réinventer les flux de travail pour y intégrer une supervision humaine efficace. Et chaque employé doit acquérir une littératie IA fondamentale : savoir formuler une requête, évaluer une réponse avec un esprit critique, et surtout, comprendre quand il est indispensable de ne pas utiliser l’IA.
L’affaire Deloitte est une leçon humiliante, mais précieuse. Elle nous rappelle que l’innovation sans la compétence est une recette pour le désastre. Il est temps de passer de l’adoption aveugle à la maîtrise éclairée.
Ce n’est pas l’IA qui trahit notre confiance, c’est notre paresse à la comprendre.
Stéphane Peeters, Fondateur Captain IA Academy+
(Photo d’illustration : Rupak De Chowdhuri/ZUMA Press Wire)
Sources
- Associated Press. (2025). Deloitte to partially refund Australian government for report with apparent AI-generated errors.
- The Guardian. (2025). Deloitte to pay money back to Albanese government after using AI in $440,000 report.
- Business Standard. (2025). Deloitte’s AI fiasco: Why chatbots hallucinate and who else got caught.