Si les cartes graphiques graphiques grand public utilisent de la mémoire dédiée GDDR6 (voire GDDR6X chez Nvidia) et les processeurs de la DDR5, certaines charges de travail, notamment du côté des serveurs, peuvent nécessiter une mémoire vive de type DRAM offrant une bande passante plus large.

C'est la mémoire HBM (High-Bandwith Memory), plus onéreuse et réservée à certains types d'applications. Après la HBM2E, le JEDEC publie la spécification pour la mémoire HBM3 qui apporte son lot d'innovations pour pousser les performances plus avant.

Elle pourra ainsi doubler la bande passante par broche en atteignant 6,4 Gb/s, ce qui permettra d'obtenir une vitesse de transfert totale de 819 Go/s, à comparer avec les 460 Go/s de l'actuelle mémoire HBM2E.

SK Hynix HBM3 mémoire

HBM3 double le nombre de canaux pour les faire passer à 16, avec la possibilité de gérer jusqu'à 32 canaux virtuels. Elle supporte des empilements de 4, 8 ou 12 empilements TSV (Through Silicon Via) avec la possibilité de passer à 16 TSV ultérieurement.

En supportant différentes densités (8 à 32 Gb, les premières générations étant attendues avec 16 Gb), il sera possible de créer des composants mémoire HBM3 de 4 à 64 Go, avec des garanties de fiabilité RAS (Reliability, Availability, Serviceability) et une correction d'erreur ECC intégrée.

Enfin, la mémoire HBM3 opére à un voltage abaissé à 1,1 Volt, améliorant son efficacité énergétique. Maintenant que le standard est publié, on devrait rapidement voir arriver les premières annonces de modules. Micron, SK Hynix et Synopsys (IP et design) sont déjà sur les rangs.