La plate-forme cloud Microsoft Azure vient de mettre en service le premier supercalculateur de production basé sur l'architecture Nvidia GB300 NVL72. Conçu spécifiquement pour OpenAI, ce cluster de plus de 4600 GPU Blackwell Ultra vise à accélérer les charges de travail d'inférence des IA de nouvelle génération, notamment pour le raisonnement et les systèmes agentiques. Une avancée majeure pour l'infrastructure IA.

La course à l'infrastructure pour l'intelligence artificielle ne connaît aucun répit. Dans cette quête de puissance, Microsoft vient de marquer un point décisif en annonçant la mise en service sur sa plateforme Azure du tout premier cluster de supercalcul à l'échelle de la production équipé de la dernière technologie de Nvidia.

Spécifiquement conçu pour les besoins colossaux d'OpenAI, ce déploiement est loin d'être un simple feu de paille ; il matérialise des années de partenariat stratégique et préfigure les capacités des futures IA.

Une architecture pensée pour la démesure

Au cœur de cette annonce se trouve le système Nvidia GB300 NVL72. Il ne s'agit pas simplement d'aligner des cartes graphiques, mais bien de repenser l'architecture même du data center pour atteindre une efficacité maximale.

Chaque rack, refroidi par liquide pour maîtriser la dissipation thermique sous des charges intenses, intègre une combinaison redoutable : 72 GPU Nvidia Blackwell Ultra et 36 CPU Grace, le tout fonctionnant comme un seul et unique accélérateur unifié.

Au total, ce premier cluster compte plus de 4608 GPU Blackwell Ultra. C'est une force de frappe considérable, destinée à gérer les modèles d'IA les plus exigeants. L'objectif est clair : décupler la capacité d'un modèle à "raisonner" et à répondre en temps réel, une étape cruciale pour les systèmes d'IA agentique.

Comment connecter des milliers de cerveaux en silicium ?

Assembler une telle puissance de calcul pose un défi majeur : la communication. Pour que ces milliers de GPU fonctionnent de concert sans goulot d'étranglement, Nvidia et Microsoft ont déployé une architecture réseau à deux niveaux.

À l'intérieur de chaque rack, la technologie NVLink 5 de cinquième génération assure une bande passante interne colossale de 130 TB/s, créant un pool de mémoire unifié de 37 téraoctets.

Pour connecter les racks entre eux et faire de l'ensemble un supercalculateur cohérent, la plateforme Quantum-X800 InfiniBand entre en jeu. Elle garantit une bande passante de 800 Gb/s pour chaque GPU à travers l'ensemble du cluster. Cette fluidité est absolument essentielle pour entraîner et exécuter les modèles à plusieurs centaines de milliards de paramètres qui se profilent à l'horizon.

L'arsenal d'OpenAI pour la prochaine frontière de l'IA

Ce déploiement s'inscrit dans une stratégie globale où chaque acteur joue un rôle précis. Microsoft, en tant que partenaire principal d'OpenAI, lui fournit les moyens matériels de ses ambitions logicielles, tandis que Nvidia fournit le silicium.

Les performances déjà mesurées sur des benchmarks comme le MLPerf Inference v5.1 montrent des gains de performance jusqu'à cinq fois supérieurs par rapport à la génération précédente Hopper sur des modèles de raisonnement complexes.

Ce supercalculateur est donc taillé sur mesure pour les futurs systèmes d'IA qui nécessitent une latence minimale et une capacité de traitement massive. Il s'agit d'un pas de plus vers la concrétisation des investissements croisés entre ces géants de la tech, et d'un signal fort envoyé à la concurrence.

Avec cette installation, Microsoft ne fait que poser la première pierre d'un édifice bien plus grand, prévoyant de déployer des centaines de milliers de GPU Blackwell à travers le monde.

Il reste maintenant à découvrir jusqu'où OpenAI pourra repousser les limites avec un tel outil entre les mains. La superintelligence artificielle évoquée par Sam Altman et les autres dirigeants des géants de l'IA deviendra-t-elle réalité ?