L'affaire fait grand bruit en Australie et secoue le monde du conseil. Deloitte, l'un des géants mondiaux de l'audit, a dû reconnaître avoir utilisé une intelligence artificielle générative pour produire un rapport crucial pour le gouvernement. Une décision qui a tourné au fiasco, le document final étant criblé de références "hallucinées" et de citations fantômes.

Comment des erreurs aussi grossières ont-elles été découvertes ?

Tout a commencé par un audit commandé par le Département de l'Emploi et des Relations Professionnelles australien. La mission de Deloitte : évaluer le système informatique automatisant les sanctions pour les demandeurs d'emploi.
Un sujet particulièrement sensible, car ce même système avait déjà été accusé d'annuler injustement plus de 1 300 aides sociales pour un préjudice total de 1,2 million de dollars australiens.

Mais le rapport de Deloitte, qui a coûté aux contribuables plus de 439 000 dollars australiens, a rapidement montré des failles béantes. C'est un chercheur, Chris Rudge, qui a tiré la sonnette d'alarme en découvrant des citations attribuées à des articles scientifiques qui n'ont tout simplement jamais existé.

drapeau Australie

Quelles étaient la nature et l'ampleur de ces "hallucinations" ?

Les erreurs dépassaient la simple coquille ou l'imprécision. Le rapport citait par exemple deux publications inexistantes de la chercheuse Lisa Burton Crawford. Contactée, celle-ci a confirmé n'avoir jamais écrit ces articles, se disant « préoccupée » de voir des recherches lui être attribuées de cette manière.

Pire encore, le document allait jusqu'à inventer une citation d'un juge dans une décision de justice et référençait une affaire juridique sans aucun rapport avec le sujet. Pour Chris Rudge, l'universitaire à l'origine de la découverte, déformer ainsi le droit commun australien dans un avis destiné au gouvernement est une faute grave, bien plus sérieuse que de mal attribuer des travaux académiques.

IA hallucinations

Quelle a été la réaction de Deloitte face à ces accusations ?

Dans un premier temps, l'entreprise a tenté de minimiser l'incident, évoquant de simples « titres qui ne correspondaient pas entièrement aux sources ». Mais face à l'évidence et à la pression médiatique, Deloitte a finalement dû admettre dans une version amendée du rapport avoir eu recours à une intelligence artificielle générative (Azure OpenAI GPT-4o).

La firme a par conséquent accepté de fournir un remboursement partiel au gouvernement, sans que le montant soit rendu public. Une sénatrice australienne, Deborah O'Neill, n'a pas manqué de tacler le cabinet, déclarant que Deloitte avait un « problème d'intelligence humaine ». Malgré les corrections apportées, le mal est fait : la confiance dans l'expertise des "big four" [terme qui désigne les quatre plus grands cabinets d’audit et de conseil au monde : Deloitte, PricewaterhouseCoopers, Ernst & Young et KPMG, NDLR] est sérieusement ébranlée par ce qui ressemble à une faute professionnelle.