Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

La loi de Moore est elle encore valide ?

116 réponses
Avatar
ast
Bonjour

Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent

Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".

Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.

D'ou la question: La loi de Moore est elle encore valide ?

10 réponses

Avatar
Benoit-Pierre DEMAINE
On 11/01/17 11:10, pehache wrote:
Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :
Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;

Comme l'a relevé ast, c'est faux.

On est entre 80 et 150 atomes selon les fonderies; expliquer les détails
de pourquoi certains butent à 100 atomes, quand d'autres ont de bons
espoirs de descendre a 20-10 devient trop délicat pour moi. Le fait est
que certaines fonderies sont bloquées; d'autres peuvent encore, au mieux,
améliorer d'un coefficient 5. Certains ont déjà touché le bout. Ceux qui
ne l'ont pas encore fait, vont le faire d'ici quelques années.
Comparé au coefficient d'amélioration qu'on a eu depuis 1950 d'environ
10^5 ... on est au bout.
Rigolo. Quand je fais long, on me repproche de faire long; quand je fais
court, on me repproche de faire court.
Alors, on ajoute des coeurs en pagaille (Intel faisait du 32 coeurs il y a
déjà plusieurs années; j'ai pas suivi récement). Mais comme on a fait
que
du monocore pendant 20 ans, tout le monde a oublié comment on code en SMP;
du coup, très peu d'applications savent tirer profit de ces machines.

On n'a pas oublié. Il y a au contraire aujourd'hui bien plus d'outils
qu'il y a 20 ans pour développer des applis tirant partie du
parallélisme. c'est juste que ce n'est pas si simple que ça : certains
algos se parallélisent très facilement, d'autres difficilement, ou mal,
ou pas du tout.

Quand la PS3 est sortie, plus aucun jeune ne savait coder pour ce type
d'archi. Depuis que la PS3 est sortie, les écoles ont du remettre ça aux
programmes scolaires. Si les GPUs continuaient de nécessiter des
compétences en calcul parallèles, le Cell restait une porte vers le MP non
symétrique ...
Les téléphones modernes sont devenus suffisement complexes pour que les
codeurs aient du cesser de se croire encore à l'époque du monocore
exclusif (x86 pure).
Donc, si la loi de Moore est censée ne concerner que le matériel, les
évolutions industrielles récentes font qu'on ne peut pas se contenter de
cette approche: la PS3 était un très bon exemple de matériel mal exploité
par défaut de compétence. Ca sert a rien d'avoir des transistors si on ne
s'en sert pas (circuits trop spécialisés, ou programmeur incompétent). Et
vu la formulation de la question initiale, cet angle là me semble beaucoup
plus important que de donner la date exacte ou on fabriquera un transistor
avec un seul atome.
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés.

La raison principale est surtout que depuis 15 ans la vitesse de traitement
des CPU a augmenté plus vite que la latence de la RAM a diminué, ce qui
fait que hors calculs complexes (encodage d'une video par exemple) les CPU
passent aujourd'hui le plus clair de leur temps à "attendre les données".

Vrai, mais variable selon les architectures.
Dès 1994 Digital avait ce problème; leur solution était super simple:
"mec, ta RAM est trop lente pour mon CPU; donc, on va en mettre deux en
alternance d'horloges". Principe qu'on retrouve dans les AMD64; puisqu'à
la fermeture de Digital une bonne partie des employés est partie chez AMD
(Intel ayant racheté les brevets, mais sans avoir les ingénieurs pour les
exploiter).
Donc, selon l'archi, certains ont décidé, ou pas, de mettre en place des
solutions.
Une autre approche consiste à prendre un processeur réputé trop rapide,
pour le downclocker, et bénéficier alors qu'une économie d'énergie
notable, comparé à un autre CPU dont la fréquence voulue serait la
fréquence nominale. On peut alors faire de la pub sur le fait que c'est
une machine économique électriquement; là ou un geek averti pourra,
moyennant consommation électrique, s'amuser à repousser le CPU à sa
fréquence d'origine. Et retomber dans le problème que tu soulève.
--
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/

If computing were an exact science, IT engineers would'nt have work _o<
"So all that's left, Is the proof that love's not only blind but deaf."
(FAKE TALES OF SAN FRANCISCO, Arctic Monkeys)
Avatar
Olivier B.
On Wed, 11 Jan 2017 10:31:23 +0100, jules
wrote:
Pourquoi vouloir plus de 8 Go???

Lorsqu'on utilise simultanément plusieurs logiciels gourmands en mémoire
c'est indispensable...
Même si ce n'est pas le cas de la plupart des gens.

J'ai acheté 64 cœurs et 128Go de RAM.

64 cœurs !!!!!
c'est quoi et quel OS ???????

Un serveur HP sous Windows, le plus drôle c'est qu'on découvre après
qu'il faut payer la licence à Microsoft "par cœur !"

bah, "on" s'est mal renseigné, c'est très clair dès le départ, le prix
en datacenter peut paraitre prohibitif mais il inclus un nombre le
licence OS illimité pour les VM hébergées, globalement si on a pas
surdimensionné l'hyperviseur on s'y retouve largement par rapport à
une infra pure physique.
Xpost+ FU2 fr.comp.sys.pc
--
pas de .turlututu. avant l'@robase
Avatar
Olivier B.
On Wed, 11 Jan 2017 12:11:35 +0100, FRITE
wrote:
Le 11/01/2017 à 10:58, pehache a écrit :
Le 10/01/2017 à 11:59, FRITE a écrit :
Pourquoi vouloir plus de 8 Go? ? ?

Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...

C'est donc bêtement par habitude mais sans justifications techniques
dans 95% des cas.
(mais dans le passé c'était justifié voir indispensable)
Pour preuve certain PC ne permettent pas d'augmenter la RAM car les
constructeurs savent que cela n'est plus indispensable.

heu, non c'est pas une preuve que plus de mémoire ne se justifie pas
dans certains cas, mais juste qu'il existe *pour des raisons de cout*
des chips qui ne savent pas gérer plus d'une certaine quantité de
mémoire par barrette, et donc totale en fonction du nombre de slot,
lui aussi réduit dans les bas prix.
(chercher 809208-B21 juste histoire de se marrer un coup)
Plus de 8Go pour notepad++, c'est pas nécéssaire, mais dès que tu
touche certains soft de montage vidéo, de jeux, de virtualisation, ça
commence à avoir du sens, et quand tu en execute plusieurs à la fois,
ça devient indispensable.
xpost + FU2 fr.comp.sys.pc
--
pas de .turlututu. avant l'@robase
Avatar
Olivier B.
On Wed, 11 Jan 2017 12:38:56 +0100, Benoit-Pierre DEMAINE
wrote:
On 11/01/17 10:58, pehache wrote:
Le 10/01/2017 à 11:59, FRITE a écrit :
Pourquoi vouloir plus de 8 Go? ? ?

Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...

Complètement stupide. Aucune application n'aura jamais besoin de plus de 64kB.

hummmmm... je sais pas trop comment le prendre, soit c'est une
référence ancienne qui vise à prouver que on aura toujours besoin de
plus (64Ko j'ai presque ça sur mon arduino), soit c'est une
affirmation entachée d'une erreur d'échelle, dans ce cas je dirais que
la plupart qui avancent que "plus" ne sera jamais nécéssaire le font
dans le déni (ou la méconnaissance) de l'évolution des environnements
informatiques et des besoins de complexification que les nouvelles
technologies créeent.
xpost+ FU2 fr.comp.sys.pc
--
pas de .turlututu. avant l'@robase
Avatar
Olivier B.
On Wed, 11 Jan 17 10:10:45 +0000, pehache wrote:
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés.

La raison principale est surtout que depuis 15 ans la vitesse de traitement
des CPU a augmenté plus vite que la latence de la RAM a diminué, ce qui
fait que hors calculs complexes (encodage d'une video par exemple) les CPU
passent aujourd'hui le plus clair de leur temps à "attendre les données".

hum, dès qu'on tape dans l'optimal bon nombre de profils x264 (x pour
générique) ou on est à fond de proc, voir limité par le nombre de
threads, quand au 265...
xpost + FU2 fr.comp.sys.pc
--
pas de .turlututu. avant l'@robase
Avatar
Olivier B.
On Wed, 11 Jan 2017 12:56:09 +0100, Benoit-Pierre DEMAINE
wrote:
On 11/01/17 11:10, pehache wrote:
Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :
Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;

Comme l'a relevé ast, c'est faux.

On est entre 80 et 150 atomes selon les fonderies; expliquer les détails
de pourquoi certains butent à 100 atomes, quand d'autres ont de bons
espoirs de descendre a 20-10 devient trop délicat pour moi.

je n'y maginais pas qu'on soit descendu aussi proche de l'atome
Rigolo. Quand je fais long, on me repproche de faire long; quand je fais
court, on me repproche de faire court.

fait "autrement" alors ;-)
Donc, si la loi de Moore est censée ne concerner que le matériel, les
évolutions industrielles récentes font qu'on ne peut pas se contenter de
cette approche: la PS3 était un très bon exemple de matériel mal exploité
par défaut de compétence. Ca sert a rien d'avoir des transistors si on ne
s'en sert pas (circuits trop spécialisés, ou programmeur incompétent). Et
vu la formulation de la question initiale, cet angle là me semble beaucoup
plus important que de donner la date exacte ou on fabriquera un transistor
avec un seul atome.

une transition vers l'optique en ransposant la techno actuelle
probablement, ou alors changement radical si le quantique aboutit.
Dès 1994 Digital avait ce problème; leur solution était super simple:
"mec, ta RAM est trop lente pour mon CPU; donc, on va en mettre deux en
alternance d'horloges". Principe qu'on retrouve dans les AMD64; puisqu'à
la fermeture de Digital une bonne partie des employés est partie chez AMD
(Intel ayant racheté les brevets, mais sans avoir les ingénieurs pour les
exploiter).
Donc, selon l'archi, certains ont décidé, ou pas, de mettre en place des
solutions.

une de mes CM est en triple channel, mais ça n'a pas duré le gain
entre 2 et 3 n'était pas suffisant pour tenir commercialement.
Une autre approche consiste à prendre un processeur réputé trop rapide,
pour le downclocker, et bénéficier alors qu'une économie d'énergie
notable, comparé à un autre CPU dont la fréquence voulue serait la
fréquence nominale. On peut alors faire de la pub sur le fait que c'est
une machine économique électriquement; là ou un geek averti pourra,
moyennant consommation électrique, s'amuser à repousser le CPU à sa
fréquence d'origine. Et retomber dans le problème que tu soulève.

le burst c'est parfois interressant, et la mémoire L2/L3 et algo de
prediction d'accès ont évolumé il me semble.
xpost + FU2 fr.comp.sys.pc
--
pas de .turlututu. avant l'@robase
Avatar
Benoit-Pierre DEMAINE
On 11/01/17 13:41, Olivier B. wrote:
On Wed, 11 Jan 2017 12:38:56 +0100, Benoit-Pierre DEMAINE
wrote:
On 11/01/17 10:58, pehache wrote:
Le 10/01/2017 à 11:59, FRITE a écrit :
Pourquoi vouloir plus de 8 Go? ? ?

Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...

Complètement stupide. Aucune application n'aura jamais besoin de plus de 64kB.

hummmmm... je sais pas trop comment le prendre, soit c'est une
référence ancienne qui vise à prouver que on aura toujours besoin de
plus (64Ko j'ai presque ça sur mon arduino), soit c'est une
affirmation entachée d'une erreur d'échelle, dans ce cas je dirais que
la plupart qui avancent que "plus" ne sera jamais nécéssaire le font
dans le déni (ou la méconnaissance) de l'évolution des environnements
informatiques et des besoins de complexification que les nouvelles
technologies créeent.

https://www.youtube.com/watch?v=RXDsRoc6MGo
Je me demande si "fact, until proven otherwise" est une citation d'un
philosophe ...
Oh pinaise ... je me suis trompé d'un zéro ... mais je crois que ça change
rien :)
--
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/

If computing were an exact science, IT engineers would'nt have work _o<
"So all that's left, Is the proof that love's not only blind but deaf."
(FAKE TALES OF SAN FRANCISCO, Arctic Monkeys)
Avatar
FRITE
Le 11/01/2017 à 13:18, Olivier B. a écrit :
On Wed, 11 Jan 2017 12:11:35 +0100, FRITE
wrote:
Le 11/01/2017 à 10:58, pehache a écrit :
Le 10/01/2017 à 11:59, FRITE a écrit :
Pourquoi vouloir plus de 8 Go? ? ?

Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...

C'est donc bêtement par habitude mais sans justifications techniques
dans 95% des cas.
(mais dans le passé c'était justifié voir indispensable)
Pour preuve certain PC ne permettent pas d'augmenter la RAM car les
constructeurs savent que cela n'est plus indispensable.

heu, non c'est pas une preuve que plus de mémoire ne se justifie pas
dans certains cas, mais juste qu'il existe *pour des raisons de cout*
des chips qui ne savent pas gérer plus d'une certaine quantité de
mémoire par barrette, et donc totale en fonction du nombre de slot,
lui aussi réduit dans les bas prix.
(chercher 809208-B21 juste histoire de se marrer un coup)

Vous confirmez Si l'on ne trouve pas 128Go sur les PC standards ce n'est
pas un problème de technologie (Arrêt de la loi de Moore)
mais simplement ce n'est pas une priorité pour l'acheteur de PC.
Le Marché à toujours raison.
Plus de 8Go pour notepad++, c'est pas nécéssaire, mais dès que tu
touche certains soft de montage vidéo, de jeux, de virtualisation, ça
commence à avoir du sens, et quand tu en execute plusieurs à la fois,
ça devient indispensable.
Avatar
Benoit-Pierre DEMAINE
On 11/01/17 13:53, Olivier B. wrote:
On Wed, 11 Jan 2017 12:56:09 +0100, Benoit-Pierre DEMAINE
wrote:
On 11/01/17 11:10, pehache wrote:
Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :
Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;

Comme l'a relevé ast, c'est faux.

On est entre 80 et 150 atomes selon les fonderies; expliquer les détails
de pourquoi certains butent à 100 atomes, quand d'autres ont de bons
espoirs de descendre a 20-10 devient trop délicat pour moi.

je n'y maginais pas qu'on soit descendu aussi proche de l'atome

C'est ce que j'avais retenu de mes lectures il y a quelques années. Mais
le calcul est simple. Ton tableau de mendeleiev te donne le diamètre moyen
d'un atome de silicium (ce qui compte pour nous ici est la distance de
centre à centre de noyeau, dans un christal).
http://www.polytech-lille.fr/cours-atome-circuit-integre/phys/sc160.htm
2.35A°
la finesse de la gravure:
http://consomac.fr/news-3582-7-nm-la-course-a-la-finesse-continue.html
on tourne dans les 10nm; mais, cette distance représente quoi exactement ?
La taille d'une porte NAND complète ? D'un transistor ? d'un élément
conducteur (un quart de transistor) ? Pas non plus confondre finesse
surfacique, et épaisseur des couches de diffusion (l'augmentation du
nombre de couches de diffusion a permis de produire des transistors en
profondeur, et plus en surface; c'est ce qui a permis un très bruptale
doublage des quantités de RAM et FLASH par unité de surface vers 2005).
https://www.irif.fr/~carton/Enseignement/Architecture/Cours/Production/
http://www.01net.com/actualites/quest-ce-que-la-finesse-de-gravure-523423.html
"un processeur gravé en 32 nm aura des transistors qui mesurent 32 nanomètres"
Donc, untransistor ... 10nm= 100A°; tu divise par le diamètre moyen de
l'atome (2.5 pour simplifier) ça donne 40 atomes de longueur. Ou 1600 en
surface.
Evidement, le journaliste qui veut vendre du torchon va te parler des 40
atomes. Alors que le scientifique qui veut étudier la frontière entre
physique classique et physique quantique va s'intéresser aux 1600.
Sachant que quand ils disent 10nm, on sait pas trop si c'est le transistor
tout compris, avec les connexions ou pas, ou si c'est la taille de son
corps, ou l'entraxe moyen, ou la largeur d'une connexion. Et faudrait
aussi tenir compte des phénomènes qui se passent en épaisseur de wafer.
Par contre, un autre calcul va te faire peur: on va passer de 10nm à 7nm.
Tu te dis que "super, on fait un tiers plus petit". Bah non; pas un tiers
du tout. Parce que le problème quantique est lié au nombre réel d'atomes,
qui doit se compter en surface. Hors, j'arrondis à 7.5nm pour simplifier,
tu n'as plus que 30 atomes de côté, soit 900 par surface. Quand tu crois
qu'on a perdu un tiers de surface, on a en réalité perdu LA MOITIE des
atomes. Et on a donc DOUBLé la sensibilité aux phénomènes quantiques.
Donc, oui, on pourrais pinailler sur l'heure exacte ou les usines seront
bloquées; mais en gros, en 60 ans on a réduit d'un facteur 10^5 environ;
mais là tu vois bien que la marge de manoeur est réduite: dans le MEILLEUR
des cas, on va bloquer vers les 5-10 atomes de côté. Soit un facteur
autour de 8.
Et quand je dis 1600 atomes, c'est par unité de surface. Si ça représente
une distance de centre à centre, faudrait déduire les zones d'isolant, les
épaisseurs de fils; mais aussi multiplier par l'épaisseur de diffusion de
chaque couche.
Sachant qu'en plus, plus tu grave fin, moins tu peux faire de couches
(pour des raisons de diffraction optique). Du coup, si à vouloir graver
fin, tu te retrouve à devoir à nouveau étaler ton transistor en surface
(alors qu'il était en profondeur depuis 15 ans), tu perds tout le bénéfice
de ton effort.
Donc c'est un bazard pas possible; et on pourrait en parler pendant des
milliers de pages; mais en gros, on a atteint la limite atomique.
On l'a atteinte depuis longtemps. Ca fait déjà plusieurs années qu'elle se
fait sentir, et qu'on a déjà du commencé à compenser pas mal de bricoles.
Car le fait qu'on parvienne encore à réduire les tailles, et que le
transistor se comporte encore de manière classique (comme depuis 80 ans),
ne veut pas dire qu'on a pas déjà du faire face à des phénomènes
quantiques. Je les connais pas en détail, mais je sais que depuis 2010 les
fonderie doivent tenir compte de pas mal de détails quantiques; c'était un
peu nouveau pour eux, et on a su compenser les bricoles. Mais maintenant,
en 2015-2020, ces bricoles se font vraiment très nombreuses, et de plus en
plus compliquées à compenser. Avant, on travaillait uniquement sur la
pureté du cristal, et les problèmes de lithographie. Maintenant, on a des
procédures pour compenser les aspects quantiques.
Même si on a encore 40 atomes de côté, on a déjà atteint l'échelle
atomique. Depuis plusieurs années.
une transition vers l'optique en ransposant la techno actuelle
probablement, ou alors changement radical si le quantique aboutit.

Ca fait un bout de temps qu'on sait faire en labo des compteurs
d'électron; et qu'on sait faire des transistors dont le comportement se
joue à l'électron près (des MOS ou l'énergie d'un unique électron suffit
pour changer le comportement de passant à bloquant). En labo, ça fait
longtemps que ça fonctionne bien. Mais au final, ce qu'il faut mettre
autour d'un tel transistor prend beaucoup de place, et la surface requise
pour en mettre un millier, ou un million, revient au même qu'un transistor
classique. Donc pas rentable de se prendre le chou.
Je n'ai jamais creusé les pistes optiques. Mais en gros, on a rien
d'industrialisable sous peu. En stockage, oui; mais pas en calcul. Les
progrès qu'on fait en optique sont surtout appliqués au stockage.
Pas confondre non plus les ordinateurs atomiques, avec les quantiques
vrais (ceux utilisable l'intrication, et la superposition des états d'un
même nucléon - je dis bien nucléon, car si les ordinateurs quantiques
courants utilisent un électron, on a plusieurs autres pistes).
Une autre approche consiste à prendre un processeur réputé trop rapide,
pour le downclocker, et bénéficier alors qu'une économie d'énergie
notable, comparé à un autre CPU dont la fréquence voulue serait la
fréquence nominale. On peut alors faire de la pub sur le fait que c'est
une machine économique électriquement; là ou un geek averti pourra,
moyennant consommation électrique, s'amuser à repousser le CPU à sa
fréquence d'origine. Et retomber dans le problème que tu soulève.

le burst c'est parfois interressant, et la mémoire L2/L3 et algo de
prediction d'accès ont évolumé il me semble.

Mon téléphone a l'option burst; je l'ai pas trouvée radicale. J'ai passé
quelques mois à tester les différents profiles de gestion d'horloge du
CPU, et j'ai pas trouvé de différence notable à l'usage.
Ce que je trouve intéressant, comme tu dis, c'est qu'on fait de bons
progrès sur le logiciel, et l'ingéniérie pure. Un bon coprocesseur bien
programmé, ou un gestionnaire matériel de cache avec des algos codés en
dur, ça, ça fait une différence significative sur les performances.
J'avais entendu parlé d'un co-processeur qui n'avait pas pour but
d'assister le CPU, mais de faire les mêmes calculs, avant lui. Une unité
simplifiée, avec les mêmes fonctions en allégées, ayant pour but d'avoir
certains résultats avant le CPU. La finalité est de savoir avant le CPU
quelles adresses seront requises, tant pour executer le code (prédiction
des sauts), que les variables. C'était une approche concurrent au
prefetcheur. Ca a mal marché; et le prefectcheur d'Intel pour les P4 a
finalement (après de nombreuses rectifications - personne n'oubliera les
performances LAMENTABLES des premiers P4; ni les failles de sécu de la
seconde série - pour devoir finir par désactiver complètement le module HT
qui était sa seule supériorité sur le P3; on se retrouvait avec les mêmes
performances qu'un P3, mais en ayant payé le double) finit par prendre le
dessus du marché.
Faut aussi noter que les performances globales de la machines doivent
impérativement tenir compte de tout ça. La profondeur du pipeline doit
être connue quand tu joue avec ta fréquence de scheduleur (Linux); si tu
calibre un scheduleur trop rapide (pour faire du temps réel), tu finis par
perdre systématiquement l'interret de ton pipeline. Donc, si ta finalité
est de faire une machine temps réel, tu peux avoir interret à prendre un
CPU moins chère, avec un pipeline moins chère (chez Intel, une grosse
partie du prix est lié au pipeline), qui au final se comportera mieux avec
un scheduleur rapide. Tu peux tuer ton hard avec un logiciel mal configuré.
--
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/

If computing were an exact science, IT engineers would'nt have work _o<
"So all that's left, Is the proof that love's not only blind but deaf."
(FAKE TALES OF SAN FRANCISCO, Arctic Monkeys)
Avatar
Christophe PEREZ
Le Wed, 11 Jan 2017 15:01:19 +0100, FRITE a écrit :
(chercher 809208-B21 juste histoire de se marrer un coup)

Vous confirmez Si l'on ne trouve pas 128Go sur les PC standards ce n'est
pas un problème de technologie (Arrêt de la loi de Moore)
mais simplement ce n'est pas une priorité pour l'acheteur de PC.
Le Marché à toujours raison.
Plus de 8Go pour notepad++, c'est pas nécéssaire, mais dès que tu


En tout cas, quelque soit la quantité de RAM, ça quote toujours aussi mal
en reprenant quasi-systématiquement la totalité des écrits précédents.
Du coup, je me retrouve à lire les plonkés. C'est moche !