Le groupe AMD, par la voix de sa PDG, a annoncé au CES 2026 l'avènement de l'ère du Yottascale.
Cette nouvelle phase de l'informatique, dictée par les besoins exponentiels de l'IA, s'étendra bien au-delà des data centers pour toucher tous les secteurs, de l'industrie à l'informatique personnelle. L'entreprise se positionne avec une gamme complète de produits pour répondre à une demande qui s'annonce colossale.
L'industrie technologique est engagée dans une course effrénée à l'infrastructure pour l'intelligence artificielle. Alors que certains analystes s'interrogeaient sur la durabilité des investissements massifs, les annonces récentes confirment que la demande en puissance de calcul est loin de ralentir.
C'est dans ce contexte que la dirigeante d'AMD a présenté une vision qui redéfinit complètement les ordres de grandeur pour la décennie à venir.
L'ère du "Yottascale", une nouvelle unité de mesure
La vision portée par Lisa Su est saisissante : le monde entre dans l'ère du calcul à l'échelle du yottaflop. Pour mettre en perspective, la PDG estime que les besoins en capacité de calcul seront environ 10 000 fois supérieurs à ce qu'ils étaient en 2022.
Le besoin mondial pourrait même dépasser les 10 yottaflops d'ici la fin de la décennie, un chiffre qui donne le vertige.
Cette explosion de la demande n'est pas uniquement tirée par les immenses modèles du cloud. L'intelligence artificielle s'infiltre dans toutes les charges de travail grand public, que ce soit dans l'informatique embarquée, les PC, la santé, ou l'industrie spatiale.
Ces avancées sectorielles créent une demande combinée que personne n'aurait pu anticiper il y a quelques années, transformant radicalement le paysage technologique.
Comment AMD compte-t-il répondre à ce défi ?
Face à ce besoin gargantuesque, AMD ne se contente pas de poser un diagnostic ; l'entreprise a dévoilé une stratégie produit complète et agressive.
La pièce maîtresse de cette vision pour les data centers est la plateforme Helios, une architecture de référence capable de fournir jusqu'à trois exaflops de performance IA dans un seul rack, conçue pour l'entraînement des modèles à plusieurs milliards de paramètres. Cette solution combine les accélérateurs Instinct MI455X et les processeurs EPYC Venice.
Le portefeuille s'élargit avec la série Instinct MI400. Elle inclut le MI440X, un système à huit GPU pour l'entraînement et l'inférence en entreprise, et le MI430X, destiné aux projets d'IA souveraine et au calcul haute performance.
Tournée vers l'avenir, la société a même esquissé les contours de la série MI500 pour 2027, qui promet une augmentation des performances IA d'un facteur 1000 par rapport au MI300X, grâce à l'architecture CDNA 6, une gravure en 2 nm et de la mémoire HBM4E.
L'IA pour tous, du data center à l'embarqué
La stratégie d'AMD ne se limite pas aux infrastructures massives. L'entreprise pousse activement le concept d'« AI PC » avec ses nouvelles puces Ryzen AI 400 Series.
Intégrant un NPU (Neural Processing Unit) XDNA 2 capable de fournir 60 TOPS de calcul IA, ces processeurs sont taillés pour les PC Copilot+ de Microsoft et visent à démocratiser l'inférence locale pour les consommateurs et les entreprises.
Cette approche est complétée par les plateformes Ryzen AI Max+, qui amènent des capacités d'IA avancées dans les ordinateurs portables ultra-fins.
Cette ambition de démocratisation s'étend jusqu'aux systèmes embarqués. Avec les processeurs Ryzen AI Embedded P100 et X100, AMD cible les cockpits automobiles, l'automatisation industrielle et la robotique.
L'objectif est clair : fournir une pile logicielle unifiée et un écosystème ouvert pour que l'IA devienne une capacité de calcul fondamentale, accessible partout. La vision d'AMD est celle d'un continuum, où la puissance de calcul s'adapte à tous les environnements, des plus grands supercalculateurs aux plus petits objets connectés.