Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

La loi de Moore est elle encore valide ?

116 réponses
Avatar
ast
Bonjour

Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent

Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".

Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.

D'ou la question: La loi de Moore est elle encore valide ?

10 réponses

Avatar
Benoit-Pierre DEMAINE
On 14/01/17 09:00, pehache wrote:
Le 14/01/2017 à 01:36, Benoit-Pierre DEMAINE a écrit :
C'est là que je vais dévier sur un nouvel usage intensif des transistors.
Car, il y a une technologie très récente, qui n'existait pas à l'époque de
Moore, qui a BEAUCOUP évoluée depuis 20 ans, et dont l'évolution a façonné
notre monde récent: la FLASH. La flash se situe pas vraiment entre la RAM
et le CPU; mais un peu en marge des deux.

Ca veut dire quoi "en marge des deux" ?? La mémoire flash n'est pas de la
RAM et n'a rien à voir avec un CPU, c'est tout.

C'est une mémoire; un ensemble de transistor prévu pour le stockage
d'information; pas pour la manipulation et le calcul. Et sa structure est
passablement auto-similaire (comme une RAM; mais pas comme un CPU).
Mais la stabilité du stockage nécessite une structure qui n'a pas grand
chose en commun avec les RAM.
=> la manière dont les transistors sont construits dans une FLASH n'a donc
que peu de points communs avec RAM ou CPU.
Pourtant, les FLASH sont une énorme proportion de ce qui sort des
fonderies. Il me semble donc improtant d'évoquer, dans un sujet sur
comment les technologies numériques évoluent avec le temps, d'évoquer ce
nouvel aspect. Puisque le sujet a évoqué qu'il fallait passer des CPU aux
RAM, je dis qu'il faut passer des RAM aux FLASH. Parce que la flash est un
facteur technologique majeur aujourd'hui.
En x86, un core fait une seule opération à la fois; pour
simplifier, tu va soit faire une multiplication, soit une soustraction
(pour citer des sous circuits réellement concurrents: la division utilise
le module de multiplication; et le module multiplication utilise
l'addition).

Tu as pris un mauvais exemple, car les x86 (comme de nombreux autres
processeurs) savent faire une opération de type
y = a*x+b
en un seul cycle d'horloge.

Pour avoir survolé le jeu d'instruction 386 ... pas d'accord du tout. En
un cycle bus, oui; en un cycle CPU, non !!!
Une barrette de RAM coute presque aussi chère qu'un CPU.

Pas du tout. Ou alors il faut préciser une barette de quelle capacité
comparée à un CPU de quel puissance. Une barette de 16Go de RAM ECC va
certes coûter plus cher qu'un Celeron, mais en règle générale sur les
configs standards de PC vendus par les fabricants, le prix du CPU qui est
dedans est nettement supérieur au prix de la RAM installée.

Oui, il faudrait préciser. C'est variable selon les besoins.
Dans mon dernier petit serveur, c'est le cas. J'ai dépensé 80e de carte
mère tout en un (dont le cout CPU représente un petit pourcentage), et 40e
de RAM.
--
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/

If computing were an exact science, IT engineers would'nt have work _o<
"So all that's left, Is the proof that love's not only blind but deaf."
(FAKE TALES OF SAN FRANCISCO, Arctic Monkeys)
Avatar
Benoit-Pierre DEMAINE
On 14/01/17 12:13, Pascal Hambourg wrote:
Le 14/01/2017 à 01:36, Benoit-Pierre DEMAINE a écrit :
Mais, que ce soit une flash ou une RAM, l'utilisateur a l'opportunité
d'exploiter 99.999% des transistors achetés;

Pas dans le cas d'un SSD ou d'une clé USB : une partie non négligeable est
réservée à l'overprovisioning et n'est pas disponible comme capacité de
stockage.

Effectivement, j'avais complètement oublié cet aspect.
Aspect, lui aussi variable selon les produits. Dans une bricole USB à 3e,
l'overprovisioning est nul: 0%. Dans un disque SSD 120GB SATA3 à 300e ...
j'ai entendu parler de 40%.
Et effectivement, dans ce cas là, j'oserais dire qu'on espère même ne
jamais avoir besoin d'utiliser la marge.
En x86, un core fait une seule opération à la fois

L'hyperthreading n'a pas été introduit pour pouvoir effectuer
simultanément plusieurs opérations sur des sous-circuits non concurrents
d'un même coeur ?

Avec beaucoup de limites ... et ça a été un assez bel échec.
C'est une évolution des x86 post 2000; ce n'est pas une notion de base des
x86 originaux; en fait, le HT date du P4; et déjà le Pentium 1 (686)
n'était plus un vrai x86. Donc, tout dépend de quel x86 on parle. C'est
une famille fourre tout, dans laquelle on a rajouté des couches avec le
temps. Donc si je te prends litéralement, depuis le HT, oui; mais avant
l'introduction du HT dans le x86 ... bah ... y avait pas encore de HT dans
le x86 :) (Lapalisse, je t'aime).
Et vu comment Intel a eu des soucis avec le HT, AMD n'était pas pressé
d'implémenter la chose. Je ne sais pas si ils l'ont fait plus tard.
Ah si: à ce jour, je l'ai à la fois dans mon Céléron2 J1900 et mon AMD
Phenom II 965 (2010).
Je ne l'ai pas dans les rPi ni mon gros smartphone: ARMv7.
Le HT a beaucoup de limites; et n'exploitera jamais la totalité des
transistors présents. Son but est seulement de gagner du temps: si deux
instructions consécutives n'ont pas besoin du résultat l'une de l'autre,
et qu'elles utilisent des zones CPU différentes, alors, on peut les faire
simultanément pour gagner du temps. Naturellement, ça n'arrive pas
souvent. Ou alors il faut que le compilateur ait optimisé l'assemblage
pour ça. Et faut que l'algorythme s'y prette.
D'autres architectures se prettent mieux à ces conceptes.
--
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/

If computing were an exact science, IT engineers would'nt have work _o<
"So all that's left, Is the proof that love's not only blind but deaf."
(FAKE TALES OF SAN FRANCISCO, Arctic Monkeys)
Avatar
Benoit-Pierre DEMAINE
On 14/01/17 08:47, pehache wrote:
Franchement, que de blabla pour ne pas reconnaître que tu as écrit un truc
faux. Tu as bien écrit initialement que depuis 10 ans on ne pouvait plus
réduire la taille, pas qu'on avait beaucoup moins progressé.

La grammaire anglaise distingue officiellement le présent continu, et le
présent progressif. Je déteste la langue française pour ses ambiguïtés.
Mais en lisant tes chiffres (une courbe visuelle m'aurait mieux parlé), tu
as raison; quand je calcule de tête le pourcentage de réduction par
années, d'après tes données, on est encore stable.
Ca expliquerait la disparition de toutes les "architectures alternatives",
et pas que dans le monde du jeu (consoles portables, serveurs).

C'est logique, la standardisation d'un marché permet de grandes économies
d'échelle.

Et du coup, fait peur à l'innovation technologique. On a le droit
d'innover "un peu", mais, fait pas vouloir en changer trop d'un coup. Au
final, impossible de repartir de zero.
On est lancé dans une continuité logicielle et matérielle depuis Windows
et le 8086; la seule révolutino que j'ai vue en matière de hard/soft,
c'est, comme j'ai dit, les ARM avec Android dans les téléphones. (quoi que
là aussi, l'arrivée massive d'ARM/Android a passablement tué les archi
concurrentes: je me souviens du jour ou la Hotline de Nokia m'a dit:
"Symbian, c'est finit".).
Mais pour pas mal de choses, ce type d'inertie devient mauvaise à long
terme pour l'évolution; et en générale, ça se termine dans un bain de sang
(la structure qui n'était pas capable d'évoluer, meurt).
Autant je suis déçu qu'Apple soit passé aux x86, autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité; et
le monde PC commence à suivre, en abandonnant le BIOS au profit des EFIs.
Mais comme cette archi x86 est trop lourde pour plein de choses, elle rate
de nouveaux segments de marchés: le rPi lui aussi crée son propre segment
de marché; et il écrase facilement sa concurrence; mais, en reprenant les
idées de base venant du monde mobile. Je trouve ça intéressant de voir
que, non content d'avoir créé son propre segment de marché (ARM ayant créé
la mobilité et investit le routeur), il crée aussi des segments enfants
(rPi) dans des domaines ou certains avaient eu du succès, mais sans casser
la baraque (Rabbit, Attmel). ARM ne se cantonne donc pas à son segment
initial, mais s'étend.
--
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/

If computing were an exact science, IT engineers would'nt have work _o<
"So all that's left, Is the proof that love's not only blind but deaf."
(FAKE TALES OF SAN FRANCISCO, Arctic Monkeys)
Avatar
Didier
Le 14/01/2017 à 11:08, FRITE a écrit :
Ast :
10 µm (1971) · 3 µm (1975) · 1,5 µm (1982) · 1 µm (1985) ·
800 nm (1989) · 600 nm (1994) · 350 nm (1995) · 250 nm (1997) ·
180 nm (1999) ·130 nm (2002) · 90 nm (2004) · 65 nm (2006) ·
45 nm (2008) · 32 nm (2010) · 22 nm (2012) · 14 nm (2014) ·
10 nm (2016-2017)

Tu as raison la gravure progresse encore mais cette finesse de gravure
ne se traduit plus par une augmentation équivalente de la vitesse des
processeurs.
https://fr.wikipedia.org/wiki/Microprocesseur
En 2007 3 Ghz en 2015 4 Ghz

Attention tout de même à l'unité : dans les années 80 - 90 on parlait en
Mhz (qq centaines de progression à chaque génération).
Là, de 3 à 4 Ghz, ça fait tout de même 1000 Mhz de progression.
Didier.
Avatar
Nicolas George
Didier , dans le message <o5dn93$k94$, a écrit :
Attention tout de même à l'unité : dans les années 80 - 90 on parlait en
Mhz (qq centaines de progression à chaque génération).
Là, de 3 à 4 Ghz, ça fait tout de même 1000 Mhz de progression.

Si on fait le calcul pertinent, la progression est la même entre 3 GHz
et 4 GHz (majuscule, Heinrich Rudolf Hertz était une personne) qu'entre
25 MHz et 33 MHz.
Avatar
FRITE
Le 14/01/2017 à 19:00, Nicolas George a écrit :
Didier , dans le message <o5dn93$k94$, a écrit :
Attention tout de même à l'unité : dans les années 80 - 90 on parlait en
Mhz (qq centaines de progression à chaque génération).
Là, de 3 à 4 Ghz, ça fait tout de même 1000 Mhz de progression.

Si on fait le calcul pertinent, la progression est la même entre 3 GHz
et 4 GHz (majuscule, Heinrich Rudolf Hertz était une personne) qu'entre
25 MHz et 33 MHz.

+1 il faut évidement raisonné en %
Depuis 2004, la fréquence des processeurs tend à stagner en raison de
difficultés de dissipation thermique, qui empêchent une montée en
fréquence en dépit de la taille plus faible des composants.
https://fr.wikipedia.org/wiki/Loi_de_Moore
Avatar
jules
Le 14/01/2017 à 19:00, Nicolas George a écrit :
Didier , dans le message <o5dn93$k94$, a écrit :
Attention tout de même à l'unité : dans les années 80 - 90 on parlait en
Mhz (qq centaines de progression à chaque génération).
Là, de 3 à 4 Ghz, ça fait tout de même 1000 Mhz de progression.

Si on fait le calcul pertinent, la progression est la même entre 3 GHz
et 4 GHz (majuscule, Heinrich Rudolf Hertz était une personne) qu' entre
25 MHz et 33 MHz.

Si on fait le raisonnement pertinent, il faut se rapporter à l'humai n.
Un de mes amis (fort malin) posait le postulat que la bonne vitesse pour
un voiture c'est 60 km/h, en effet c'est 2 m/s et une voiture de 4 m
mettra 2 s à parcourir sa longueur, or le réflexe moyen d'un co nducteur
moyen c'est 0.2 s donc son cerveau aura le temps de faire une dizaine de
boucles pour asservir son vézicule etc...
Donc une progression de 25 à 33 MHz en temps de "qquechose" c'est 8 MHz
par rapport à 0,5 Hz soit 16 millions.
La même entre 3 et 4 GHz 1 GHz par rapport à 0.5 Hz soit 2000 m illions
et là c'est Monsieur++ qui se décarcasse.
Avatar
Nicolas George
jules , dans le message <587a7b5e$0$3305$, a
écrit :
Si on fait le raisonnement pertinent, il faut se rapporter à l'humain.
Un de mes amis (fort malin) posait le postulat que la bonne vitesse pour
un voiture c'est 60 km/h, en effet c'est 2 m/s et une voiture de 4 m
mettra 2 s à parcourir sa longueur, or le réflexe moyen d'un conducteur
moyen c'est 0.2 s donc son cerveau aura le temps de faire une dizaine de
boucles pour asservir son vézicule etc...
Donc une progression de 25 à 33 MHz en temps de "qquechose" c'est 8 MHz
par rapport à 0,5 Hz soit 16 millions.
La même entre 3 et 4 GHz 1 GHz par rapport à 0.5 Hz soit 2000 millions
et là c'est Monsieur++ qui se décarcasse.

Je trouve ces raisonnements ridicules.
Avatar
Pascal Hambourg
Le 14/01/2017 à 15:48, Benoit-Pierre DEMAINE a écrit :
On 14/01/17 12:13, Pascal Hambourg wrote:
Le 14/01/2017 à 01:36, Benoit-Pierre DEMAINE a écrit :
Mais, que ce soit une flash ou une RAM, l'utilisateur a l'opportunité
d'exploiter 99.999% des transistors achetés;

Pas dans le cas d'un SSD ou d'une clé USB : une partie non négligeable est
réservée à l'overprovisioning et n'est pas disponible comme capacité de
stockage.

Effectivement, j'avais complètement oublié cet aspect.
Aspect, lui aussi variable selon les produits. Dans une bricole USB à 3e,
l'overprovisioning est nul: 0%.

J'en doute. Si je considère une "bricole USB à 3 €" de 8 Go en ma
possession, sa capacité visible est de quasiment 8 Go (8 milliards
d'octets) tout rond, alors que je parie que sa capacité physique réelle
est de 8 Gio, soit presque 8,6 Go, la capacité des puces de mémoire
flash étant une puissance entière de 2 par construction. Il y a donc
environ 7,5% (écart entre 1 Go et 1 Gio) de la capacité qui sert pour de
l'overprovisioning (et éventuellement le stockage de méta-données, mais
je doute que ça ait besoin de 7% de la capacité).
Dans un disque SSD 120GB SATA3 à 300e ...
j'ai entendu parler de 40%.
Et effectivement, dans ce cas là, j'oserais dire qu'on espère même ne
jamais avoir besoin d'utiliser la marge.

J'espère bien que si. Si c'est à cela que tu penses, l'overprovisioning
ne sert pas seulement à remplacer les blocs défectueux. Il sert aussi au
nivellement de l'usure, au "ramasse-miettes" (garbage collector), à
l'effacement différé (indispensable pour des performances décentes en
écriture ; s'il fallait effacer un bloc juste avant de l'écrire, ce
serait horriblement lent)...
En x86, un core fait une seule opération à la fois

L'hyperthreading n'a pas été introduit pour pouvoir effectuer
simultanément plusieurs opérations sur des sous-circuits non concurrents
d'un même coeur ?

Avec beaucoup de limites ... et ça a été un assez bel échec.

C'est ce que j'avais cru comprendre (et constater avec mes P4), surtout
quand Intel ne l'a pas implémenté dans les Core et Core 2. Mais alors
pourquoi diable a-t-il été réintégré dans les générations suivantes ?
C'est une évolution des x86 post 2000; ce n'est pas une notion de base des
x86 originaux;

Argument spécieux. Si on suit cette mogique, il n'y avait pas non plus
de x86 originel multicoeur, donc parler de coeur pour un x86 n'a pas de
sens.
en fait, le HT date du P4; et déjà le Pentium 1 (686)
n'était plus un vrai x86. Donc, tout dépend de quel x86 on parle. C'est

Le premier Pentium est un 586, comme le MMX. C'est le Pentium Pro qui
est le premier 686, suivi par le Pentium II, le premier Celeron puis le
Pentium III.
Avatar
Olivier B.
On Sat, 14 Jan 2017 20:26:19 +0100, jules
wrote:
Le 14/01/2017 à 19:00, Nicolas George a écrit :
Didier , dans le message <o5dn93$k94$, a écrit :
Attention tout de même à l'unité : dans les années 80 - 90 on parlait en
Mhz (qq centaines de progression à chaque génération).
Là, de 3 à 4 Ghz, ça fait tout de même 1000 Mhz de progression.

Si on fait le calcul pertinent, la progression est la même entre 3 GHz
et 4 GHz (majuscule, Heinrich Rudolf Hertz était une personne) qu'entre
25 MHz et 33 MHz.

Si on fait le raisonnement pertinent, il faut se rapporter à l'humain.
Un de mes amis (fort malin) posait le postulat que la bonne vitesse pour
un voiture c'est 60 km/h, en effet c'est 2 m/s et une voiture de 4 m
mettra 2 s à parcourir sa longueur, or le réflexe moyen d'un conducteur
moyen c'est 0.2 s donc son cerveau aura le temps de faire une dizaine de
boucles pour asservir son vézicule etc...

ha bon, donc une smart doit rouler bien moins vite qu'une C6, quand à
l'autobus il peut rouler à fond, bref jamais je ne qualifiereais ce
raisonnement de "pertinent" ou "malin", quand au fonctionnement du
cerveau humain, bof bof bof
Donc une progression de 25 à 33 MHz en temps de "qquechose" c'est 8 MHz
par rapport à 0,5 Hz soit 16 millions.
La même entre 3 et 4 GHz 1 GHz par rapport à 0.5 Hz soit 2000 millions
et là c'est Monsieur++ qui se décarcasse.

vous mettez en relatiions de choses sans aucun sens.
xpost + FU2 fr.comp.sys.pc
--
pas de .turlututu. avant l'@robase