Michael Burry, célèbre pour le film "The Big Short", alerte : les géants de la tech pourraient gonfler artificiellement leurs profits en sous-estimant la dépréciation de leurs GPU.

Au cœur d'un investissement de 1000 milliards de dollars, cette pratique comptable pourrait masquer une bombe à retardement financière alors que Nvidia accélère le rythme de ses innovations.

C'est le pari financier du siècle. Les géants de la technologie comme Microsoft, Google, Meta ou encore Oracle s'apprêtent à dépenser des centaines de milliards de dollars sur cinq ans pour bâtir l'infrastructure de l'IA.

Au centre de cet investissement colossal se trouve un composant clé : le processeur graphique, ou GPU, principalement fourni par Nvidia. Or, la valeur de ces puces, et surtout la vitesse à laquelle elles la perdent, est devenue un sujet de débat brûlant.

Le grand écart comptable

En comptabilité, la dépréciation permet d'étaler le coût d'un actif sur sa durée de vie utile estimée. Pour leurs serveurs et GPU, la plupart des hyperscalers ont adopté une durée de vie de cinq à six ans.

Cette pratique permet de réduire la charge annuelle sur les comptes et, par conséquent, de présenter des bénéfices plus élevés. Pourtant, une voix discordante, et non des moindres, s'élève pour mettre en garde contre ce qui pourrait être une dangereuse illusion comptable.

Michael Burry, l'investisseur qui avait prédit la crise des subprimes de 2008, suggère que la durée de vie réelle de ces équipements pour l'intelligence artificielle serait plutôt de deux à trois ans.

Si tel est le cas, les entreprises concernées sous-estiment massivement leurs dépenses et gonflent artificiellement leurs résultats.

Une obsolescence programmée par l'innovation

Le problème est simple, mais ses implications sont vertigineuses. La valeur d'un GPU dépend de sa performance et de son efficacité énergétique. Des entreprises comme CoreWeave, qui louent de la puissance de calcul, affirment que leurs puces plus anciennes, comme les A100 de Nvidia, sont encore entièrement réservées et rentables.

Michael Intrator, son PDG, se veut rassurant en expliquant que même des contrats expirés sur des puces H100 se renouvellent à 95 % du prix initial. Cependant, le PDG de Nvidia lui-même, Jensen Huang, a jeté un pavé dans la mare.

Lors de l'annonce de sa nouvelle architecture Blackwell, il a plaisanté en affirmant que lorsque celle-ci serait disponible en volume, "on ne pourrait même plus donner les puces Hopper", la génération précédente.

Nvidia est en effet passé d'un cycle d'innovation de deux ans à un rythme annuel, accélérant mécaniquement l'obsolescence de son propre matériel.

Le risque d'un château de cartes financier

Cette dépréciation accélérée pose un risque systémique, notamment pour les "Neocloud" comme CoreWeave, dont le modèle économique repose sur des financements massifs garantis par la valeur de leurs parcs de GPU.

Si la valeur de ces actifs s'effondre plus vite que prévu, c'est tout l'édifice financier qui vacille. Les géants du secteur ne sont pas totalement à l'abri. Conscient du danger, Satya Nadella, le patron de Microsoft, a admis vouloir espacer ses achats de puces pour ne pas "se retrouver coincé avec quatre ou cinq ans de dépréciation sur une seule génération".

La construction effrénée de centres de données pourrait ainsi se heurter à une réalité économique brutale si le matériel devient non rentable bien avant d'être amorti.

Au final, tout reposera sur la capacité des directions financières à convaincre leurs auditeurs que leurs estimations comptables sont justes. Mais face à un rythme d'innovation qui ne cesse de s'accélérer, avec déjà la génération Vera Rubin qui se profile après Blackwell, la question reste entière : combien de temps la réalité du silicium pourra-t-elle ignorer celle des livres de comptes ?