Le contexte est désormais bien connu : le boom de l'intelligence artificielle entraîne une construction effrénée de centres de données toujours plus vastes et puissants.
Cependant, cette expansion se heurte à un mur physique : la capacité des réseaux électriques traditionnels à fournir une énergie suffisante.
Selon les analystes du cabinet d'études Gartner, les services publics ne peuvent tout simplement pas suivre le rythme effréné de cette nouvelle demande, créant un décalage dangereux entre les besoins des infrastructures numériques et la réalité de la production électrique.
Une consommation électrique qui s'emballe
Les chiffres publiés par Gartner sont sans appel. La demande en électricité des infrastructures numériques devrait augmenter de 16 % dès 2025 pour littéralement doubler d'ici 2030, passant de 448 térawattheures (TWh) à 980 TWh.
La cause principale de cette inflation est clairement identifiée : les serveurs optimisés pour l'IA, dont la consommation propre devrait être multipliée par cinq sur la même période. Ils représenteront 44 % de l'usage électrique total des centres de données en 2030, contre 21 % en 2025.
Géographiquement, les États-Unis et la Chine mèneront cette course, concentrant plus des deux tiers de la demande électrique. La part des data centers dans la consommation régionale américaine devrait ainsi bondir de 4 % à 7,8 % entre 2025 et 2030, tandis que l'Europe verra sa part passer de 2,7 % à 5 %.
La Chine semble toutefois mieux positionnée, grâce à une meilleure planification des infrastructures et à des serveurs plus efficients énergétiquement.
L'autonomie énergétique comme seule issue ?
Face à l'incapacité du réseau à suivre, les opérateurs n'auront d'autre choix que de générer leur propre électricité. Gartner prédit que d'ici 2028, seulement 40 % des nouvelles installations dépendront exclusivement du réseau électrique public.
Cette nouvelle réalité oblige les clients des services cloud et d'hébergement à faire preuve d'une vigilance accrue. Il leur est désormais conseillé d'exiger des opérateurs une transparence totale sur leurs stratégies d'alimentation et l'impact de celles-ci sur la tarification finale.
Cette transition vers l'autoproduction ne se fera pas sans heurts financiers. Les opérateurs de centres de données agiront comme des pionniers, adoptant des technologies naissantes dont les coûts initiaux seront particulièrement élevés.
Le réalisme économique veut que ces surcoûts soient inévitablement répercutés sur les clients, qu'il s'agisse des utilisateurs de services SaaS ou d'infrastructures IaaS. La disponibilité de l'énergie devient donc le principal facteur déterminant des prix.
Vers quelles nouvelles sources d'énergie ?
La dépendance actuelle aux énergies fossiles pour la production sur site n'est plus une option viable à long terme. Le regard se tourne donc vers des technologies propres émergentes qui pourraient devenir des alternatives crédibles d'ici la fin de la décennie.
Parmi les candidats les plus sérieux, on retrouve l'hydrogène vert, la géothermie et surtout les petits réacteurs modulaires (SMR). Certains géants, comme Microsoft, explorent même déjà des pistes plus futuristes comme l'énergie issue de la fusion nucléaire.
Gartner anticipe que d'ici 2036, un peu moins de la moitié des nouveaux centres de données s'appuieront sur des technologies propres qui ne sont pas encore commercialement disponibles aujourd'hui.
En attendant, le gaz naturel restera une solution de transition, complétée par des systèmes de stockage par batterie pour pallier l'intermittence du solaire et de l'éolien.
Ce sont donc les premiers utilisateurs de ces centres de données de nouvelle génération qui devront soutenir les coûts nécessaires pour essuyer les plâtres de cette transformation énergétique majeure.