OVH Cloud OVH Cloud

2 Go de RAM au lieu de 1 Go et processeur inférieur ?

15 réponses
Avatar
Tatord totor
Pour un budget identique, sous Windows XP avec un proc Intel Core 2 Duo...

- Est-il plus judicieux de choisir un processeur E6300 plutôt que le modèle
supérieur E6400 et installer 2 Go de RAM au lieu de 1 Go...

... ou bien,

- d'acheter le processeur E6400, d'installer 1 Go de RAM et d'attendre
l'évolution des prix des barrettes de mémoire.

- Dans la mesure où il est décidé de ne pas overclocker la machine, est-il
préférable d'acheter des barrettes PC4200 (533 MHz) ou bien PC5300 (667 MHz)
... en tenant compte que pour l'instant, la différence de prix reste
sensible avec les barettes de 1 Go.

Quels sont vos avis sur ces questions..?


cordialement,
michel cr

5 réponses

1 2
Avatar
Tatord totor
Si tu viens à manquer de puissance, tu dois changer de processeur ... Pas
donné.
Si tu n'as pas assez de mémoire (et encore, avec 1Go, t'es tranquille), tu
as juste à ajouter une barette.



Oui, tu as raison Franky, il est bien plus facile de rajouter une ou deux
barrettes - surtout avec des CM comportant 4 slots pour barrettes - que de
démonter, changer de proc, remonter un nouveau ... cela d'autant plus
lorsque le prix de la RAM est au plus haut... L'intervention de Sylvain va
aussi dans ce sens.

Je suis donc maintenant convaincu qu'il est plus judicieux, pour un matériel
récent, de privilégier - au niveau investissement - le proc par rapport à la
mémoire RAM ...

... Cela dit, par la suite, il peut être intéressant d'acheter une ou deux
barrettes, lorsque les prix sont au plus bas, même si l'on en n'a pas trop
besoin, ne serait-ce que pour - à long terme - éviter la rareté du produit
(donc assez cher) lorsqu'il devient obsolète.

cordialement,
michel cr

Avatar
Pascal Hambourg
Salut,


L'augmentation de fréquence entraine souvent une augmentation des temps
de latence...


Plus exactement, l'augmentation de la fréquence d'horloge entraîne une
augmentation du *nombre de cycles* de latence (exprimé en cycles
d'horloge), qui fait qu'au final le *temps* de latence (exprimé en
nano-secondes ou micro-secondes) reste sensiblement identique. Parce que
précisément, ce temps de latence constitue une limite technologique de
la mémoire.

C'est exactement comme avec les disques durs : ce n'est pas parce qu'on
passe du SATA 1 au SATA 2 et qu'on double le débit sur le bus que les
données sont lues ou écrites plus vite.

Avatar
Sylvain Collange
Pascal Hambourg wrote:
Plus exactement, l'augmentation de la fréquence d'horloge entraîne une
augmentation du *nombre de cycles* de latence (exprimé en cycles
d'horloge), qui fait qu'au final le *temps* de latence (exprimé en
nano-secondes ou micro-secondes) reste sensiblement identique. Parce que
précisément, ce temps de latence constitue une limite technologique de
la mémoire.

C'est exactement comme avec les disques durs : ce n'est pas parce qu'on
passe du SATA 1 au SATA 2 et qu'on double le débit sur le bus que les
données sont lues ou écrites plus vite.


Euh, je ne comprend pas trop la comparaison là. Le débit d'un disque est
limité par la vitesse de sa mécanique, point. Alors que pour la mémoire
quand on augmente la fréquence et le nombre de cycles de latence, on
augmente la profondeur de pipeline de la mémoire, donc le débit. A
latence constante (voire pire), effectivement.

Reste que si on peut augmenter la fréquence sans baisser le temps de
latence, on ne peut qu'augmenter les performances.

--
Sylvain

Avatar
Pascal Hambourg
Pascal Hambourg wrote:

Plus exactement, l'augmentation de la fréquence d'horloge entraîne une
augmentation du *nombre de cycles* de latence (exprimé en cycles
d'horloge), qui fait qu'au final le *temps* de latence (exprimé en
nano-secondes ou micro-secondes) reste sensiblement identique. Parce
que précisément, ce temps de latence constitue une limite
technologique de la mémoire.

C'est exactement comme avec les disques durs : ce n'est pas parce
qu'on passe du SATA 1 au SATA 2 et qu'on double le débit sur le bus
que les données sont lues ou écrites plus vite.



Euh, je ne comprend pas trop la comparaison là. Le débit d'un disque est
limité par la vitesse de sa mécanique, point.


Et c'est pareil pour l'électronique d'une mémoire. Que ce soit de la
SDRAM, DDR, DDR2, le coeur est encore et toujours cette bonne vieille
matrice de cellules de RAM dynamique (DRAM). C'est de là que vient la
latence.

Alors que pour la mémoire
quand on augmente la fréquence et le nombre de cycles de latence, on
augmente la profondeur de pipeline de la mémoire, donc le débit.


Gni ? Le nombre de cycles de latence à une fréquence donnée ne sert qu'à
attendre le temps de latence nécessaire à ce que les données cheminent
entre la matrice DRAM et l'interface synchrone.


Avatar
Sylvain Collange
Et c'est pareil pour l'électronique d'une mémoire. Que ce soit de la
SDRAM, DDR, DDR2, le coeur est encore et toujours cette bonne vieille
matrice de cellules de RAM dynamique (DRAM). C'est de là que vient la
latence.


Jusque là d'accord. Par contre une comparaison plus juste serait avec le
RAID0 : on garde la même mécanique, donc la même latence, mais on
augmente les débits.

Alors que pour la mémoire quand on augmente la fréquence et le nombre
de cycles de latence, on augmente la profondeur de pipeline de la
mémoire, donc le débit.



Gni ? Le nombre de cycles de latence à une fréquence donnée ne sert qu'à
attendre le temps de latence nécessaire à ce que les données cheminent
entre la matrice DRAM et l'interface synchrone.


Oui mais heureusement depuis la DRAM EDO on n'est pas limité à un seul
transfert mémoire à la fois. D'ailleurs on ne lit jamais un seul mot
seulement dans la mémoire, l'unité de base est une rafale de 8x64bits
(qui correspond à une ligne de cache) :
par exemple, pour un accès aléatoire, le contrôleur mémoire lance une
instruction de chargement de ligne, attend un temps Trc ("RAS to CAS"),
lance une intruction de lecture, attend Tcl ("CAS latency"), puis les 8
demi-cycles suivants lit les données retournées.
Au total pour Trc=3 et Tcl=3, on a transféré 64 octets en 10 cycles.

Ensuite si la ligne ou l'on veut lire est déjà ouverte, on n'a pas
besoin d'attendre de nouveau Trc, juste Tcl. (C'est pour ça que c'est le
paramètre Tcl a le plus d'influence sur la latence perçue.)

Et enfin, les puces de mémoire sont constituées de plusieurs banques
indépendantes, et en accédant alternativement à plusieurs banques
différentes (en envoyant les commandes à la banque 1 pendant le
transfert avec la banque 0 et vice versa), on peut atteindre 100%
d'utilisation, soit 3,2Go/s pour de la PC3200, 5,3Go/s pour de la
PC5300, etc.

Les contrôleurs mémoires spécialisés comme ceux des cartes vidéo
arrivent bien à atteindre le débit théorique, mais pour un processeur
généraliste c'est plus difficile. Pour ça les processeurs récents genre
Core 2 ont tout plein de prefetchers qui passent leur temps à observer
les motifs d'accès à la mémoire pour pouvoir anticiper les accès, et
pouvoir masquer la latence.

--
Sylvain


1 2