Le spécialiste des puces mobiles Qualcomm (QCOM) a officialisé lundi son arrivée sur le marché très lucratif des accélérateurs d'intelligence artificielle pour centres de données.

Avec les nouvelles cartes AI200 et AI250, optimisées pour l'inférence, le groupe se positionne en rival direct de Nvidia et AMD en mettant l'accent sur un coût total de possession (TCO) réduit et une capacité mémoire supérieure.

Cette annonce marque un tournant majeur pour l'entreprise, traditionnellement axée sur la connectivité sans fil et les appareils mobiles. Le mouvement a été salué par les marchés boursiers, l'action Qualcomm ayant grimpé de plus de 18 % pour atteindre 200,62 dollars lors des échanges matinaux.

La nouvelle offre : AI200 et AI250 pour l'inférence en rack

L'offensive de Qualcomm prend la forme de deux nouvelles solutions optimisées pour l'inférence IA : les cartes accélératrices basées sur les puces Qualcomm AI200 et AI250.

Ces produits sont conçus pour s'intégrer dans des systèmes qui remplissent des racks de serveurs complets, notamment avec un refroidissement liquide direct (DLC) pour une meilleure efficacité thermique.

Qualcomm AI200

Ces systèmes sont pensés pour les grands modèles de langage (LLM) et les modèles multimodaux, nécessitant une énorme puissance de calcul pour l'exécution d'IA, appelée l'inférence. Il s'agit là d'une différence fondamentale avec l'apprentissage (training) des modèles, qui est traditionnellement le domaine de prédilection de Nvidia.

L'AI200 sera disponible commercialement en 2026, suivi par l'AI250 début 2027. Le design s'appuie sur la technologie NPU (Neural Processing Unit) déjà éprouvée dans les puces pour smartphones de Qualcomm, baptisée Hexagon.

Défier le statu quo de Nvidia et AMD

Ce nouveau marché est aujourd'hui largement sous l'emprise de Nvidia, dont les GPU (unités de traitement graphique) détiennent plus de 90 % des parts de marché.

Les ventes de ces puces ont propulsé l'entreprise à une capitalisation boursière de plus de 4500 milliards de dollars, faisant d'elle le leader incontesté et une référence mondiale.

D'autres acteurs majeurs, tels qu'Advanced Micro Devices (AMD) et Broadcom, proposent également des solutions compétitives, créant une pression constante. Ce segment représente d'ailleurs la plus forte croissance de la technologie, avec près de 6700 milliards de dollars de dépenses d'investissement prévues d'ici 2030 dans les centres de données, selon une estimation de McKinsey.

Qualcomm AI200 AI250

L'approche de Qualcomm se distingue par son focus sur la performance par dollar par watt et un faible coût total de possession (TCO) pour les opérateurs de cloud. Ces arguments sont primordiaux pour les clients cherchant des alternatives pour optimiser leurs dépenses massives.

Des atouts techniques pour séduire les hyperscalers

Durga Malladi, vice-président senior chez Qualcomm Technologies, a souligné que ces solutions "redéfinissent ce qui est possible pour l'inférence IA à l'échelle du rack."

Les puces prennent en charge jusqu'à 768 Go de mémoire LPDDR (Qualcomm ne précise pas la version, sans doute à dessein) par carte, offrant ainsi une capacité mémoire considérablement plus élevée que les offres actuelles de Nvidia et AMD, un atout clé pour les grands modèles.

L'AI250 promet notamment une architecture mémoire innovante basée sur le calcul proche de la mémoire. Cette avancée vise une efficacité et des performances accrues, notamment avec un débit mémoire effectif jusqu'à 10 fois supérieur pour une consommation énergétique significativement inférieure.

Qualcomm Humain datacenter IA inference

De plus, Qualcomm a déjà un client de taille et un gage de confiance : la startup saoudienne Humain. Cette dernière s'est engagée à déployer une infrastructure IA de 200 mégawatts à partir de 2026, utilisant les systèmes AI de Qualcomm pour ses centres de données.

Une bataille féroce qui ne fait que commencer

Avec une feuille de route prévoyant un nouveau produit IA pour centres de données chaque année, Qualcomm entend bien s'assurer une place dans ce segment technologique en croissance exponentielle. L'entreprise ne se contente pas de proposer des racks complets, comme le font ses rivaux.

Elle est également ouverte à la vente de composants séparés, tels que les puces ou les CPU, permettant aux grands clients comme les hyperscalers (Google, Amazon, Microsoft) de "mélanger et assortir" leurs équipements. Cette flexibilité pourrait être un argument de poids face à une demande croissante d'alternatives aux systèmes dominants et fermés.

L'entrée en scène de Qualcomm intensifie la concurrence et confirme que la bataille pour l'équipement des fermes de serveurs IA ne fait que commencer. Il reste à voir quelles seront les performances réelles de ces nouveaux composants IA.