Kevin Scott, le CTO de Microsoft, confirme la stratégie du géant : utiliser principalement ses propres puces pour l'IA dans ses data centers. Face à une demande explosive et une dépendance à Nvidia, Microsoft accélère le développement de ses processeurs Cobalt et Maia pour maîtriser toute la chaîne de valeur, du silicium au logiciel, et optimiser ses infrastructures.

Le message du directeur de la technologie chez Microsoft a le mérite de la clarté. L'entreprise de Redmond, jusqu'ici grandement dépendante de Nvidia et, dans une moindre mesure, d'AMD pour équiper ses immenses centres de données, entend bien changer la donne.

L'objectif à long terme est sans équivoque : faire la part belle à ses propres puces maison pour l'avenir de son cloud Azure et de ses services d'intelligence artificielle, sans pour autant se couper complètement des autres approvisionnements.

Une stratégie de longue date qui s'accélère

Cette orientation n'est pas une surprise totale. Dès 2023, Microsoft avait dévoilé ses premières créations : l'accélérateur Azure Maia, taillé pour les charges de travail IA, et le processeur Cobalt. Mais la confirmation par Kevin Scott lors de l'Italian Tech Week marque un changement de braquet.

Microsoft refroidissement GPU Maia Sidekick

Il ne s'agit plus seulement d'une alternative, mais d'une volonté de devenir le principal fournisseur de ses propres infrastructures. Le dirigeant a rappelé que le choix s'est toujours porté sur le meilleur rapport performance/prix, une couronne longtemps portée par Nvidia. 

Pourquoi maîtriser le silicium est-il si crucial ?

Au-delà de la maîtrise de la fabrication de puces. Kevin Scott a insisté sur l'importance de contrôler l'ensemble du système du data center, du matériel au logiciel.

En concevant ses propres processeurs, réseaux et même ses systèmes de refroidissementcomme sa récente innovation par microfluides, Microsoft peut optimiser chaque composant pour ses besoins spécifiques.

Microsoft refroidissement gpu in chip

Cette intégration verticale permet d'ajuster finement l'infrastructure aux logiciels, une synergie que des fournisseurs tiers ne peuvent offrir au même degré. C'est une quête d'efficacité absolue pour ne gaspiller aucune once de cette précieuse puissance de calcul.

Une réponse à une demande qui dépasse toutes les prévisions

La raison de cette course effrénée est simple : une pénurie de capacité de calcul. La demande pour l'intelligence artificielle, propulsée par des outils comme ChatGPT, a explosé bien au-delà des projections les plus optimistes.

Les géants de la tech, de Microsoft à Meta en passant par Google et Amazon, devraient dépenser plus de 300 milliards de dollars cette année, majoritairement dans l'infrastructure IA.

Malgré des investissements colossaux dans la construction de data centers, Kevin Scott l'admet sans détour : ce n'est toujours pas suffisant. "Même nos prévisions les plus ambitieuses se révèlent insuffisantes de manière régulière", a-t-il concédé, soulignant l'urgence de trouver des solutions pour suivre un rythme devenu frénétique.