Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

La loi de Moore est elle encore valide ?

116 réponses
Avatar
ast
Bonjour

Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent

Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".

Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.

D'ou la question: La loi de Moore est elle encore valide ?

10 réponses

8 9 10 11 12
Avatar
pehache
Le 14/01/2017 à 16:05, Benoit-Pierre DEMAINE a écrit :
C'est logique, la standardisation d'un marché permet de grandes économies
d'échelle.

Et du coup, fait peur à l'innovation technologique. On a le droit
d'innover "un peu", mais, fait pas vouloir en changer trop d'un coup. Au
final, impossible de repartir de zero.

Si, mais il faut que le reset apporte un plus vraiment significatif, pas
juste un petit plus.
Autant je suis déçu qu'Apple soit passé aux x86,

C'était pour eux le choix le plus pertinent à l'époque.
autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;

Quelle rupture ? Et avec quoi ? Windows s'installe nativement sur tous
les Mac x86, et un Mac est aujourd'hui un PC comme un autre.
Avatar
pehache
Le 14/01/2017 à 15:35, Benoit-Pierre DEMAINE a écrit :
On 14/01/17 09:00, pehache wrote:
Le 14/01/2017 à 01:36, Benoit-Pierre DEMAINE a écrit :
C'est là que je vais dévier sur un nouvel usage intensif des transistors.
Car, il y a une technologie très récente, qui n'existait pas à l'époque de
Moore, qui a BEAUCOUP évoluée depuis 20 ans, et dont l'évolution a façonné
notre monde récent: la FLASH. La flash se situe pas vraiment entre la RAM
et le CPU; mais un peu en marge des deux.

Ca veut dire quoi "en marge des deux" ?? La mémoire flash n'est pas de la
RAM et n'a rien à voir avec un CPU, c'est tout.

C'est une mémoire; un ensemble de transistor prévu pour le stockage
d'information; pas pour la manipulation et le calcul. Et sa structure est
passablement auto-similaire (comme une RAM; mais pas comme un CPU).

Ca n'a donc rien à voir avec un CPU.
Mais la stabilité du stockage nécessite une structure qui n'a pas grand
chose en commun avec les RAM.
=> la manière dont les transistors sont construits dans une FLASH n'a donc
que peu de points communs avec RAM ou CPU.

Ca n'a donc rien à voir avec un CPU
Pourtant, les FLASH sont une énorme proportion de ce qui sort des
fonderies. Il me semble donc improtant d'évoquer, dans un sujet sur
comment les technologies numériques évoluent avec le temps, d'évoquer ce
nouvel aspect. Puisque le sujet a évoqué qu'il fallait passer des CPU aux
RAM,

Passer des CPU aux RAM ??
je dis qu'il faut passer des RAM aux FLASH. Parce que la flash est un
facteur technologique majeur aujourd'hui.

Je ne comprends rien de là où tu veux en venir...
Avatar
pehache
Le 14/01/2017 à 22:49, Pascal Hambourg a écrit :
L'hyperthreading n'a pas été introduit pour pouvoir effectuer
simultanément plusieurs opérations sur des sous-circuits non concurrents
d'un même coeur ?

Avec beaucoup de limites ... et ça a été un assez bel échec.

C'est ce que j'avais cru comprendre (et constater avec mes P4), surtout
quand Intel ne l'a pas implémenté dans les Core et Core 2. Mais alors
pourquoi diable a-t-il été réintégré dans les générations suivantes ?

L'hyperthreading est inutile pour certains calculs, il l'est pour d'autres.
Avatar
Benoit-Pierre DEMAINE
On 14/01/17 22:49, Pascal Hambourg wrote:
Aspect, lui aussi variable selon les produits. Dans une bricole USB à 3e,
l'overprovisioning est nul: 0%.

J'en doute. Si je considère une "bricole USB à 3 €" de 8 Go en ma
possession, sa capacité visible est de quasiment 8 Go (8 milliards
d'octets) tout rond, alors que je parie que sa capacité physique réelle
est de 8 Gio

On a déjà eu un débat il y a quelques mois sur un laser de poche dont la
page commerciale, d'un paragraphe à l'autre, oscillait entre 5mW et 5MW
... donc, des erreurs entre GB et GiB, c'est juste des milliers de fois
par jour.
Nan, moi je dirais que tu as de la chance qu'elle soit construite
physiquement avec une puce de 8GB, et pas une puce de 8Gb ... (google, tu
trouvera facilement des puces 2GB vendues comme 4GB. Oui ... un
overprovisioning négatif !!! )
Dans un disque SSD 120GB SATA3 à 300e ...
j'ai entendu parler de 40%.
Et effectivement, dans ce cas là, j'oserais dire qu'on espère même ne
jamais avoir besoin d'utiliser la marge.

J'espère bien que si. Si c'est à cela que tu penses, l'overprovisioning ne
sert pas seulement à remplacer les blocs défectueux. Il sert aussi au
nivellement de l'usure, au "ramasse-miettes" (garbage collector), à
l'effacement différé (indispensable pour des performances décentes en
écriture ; s'il fallait effacer un bloc juste avant de l'écrire, ce serait
horriblement lent)...

Le nivellement d'usure coute une fortune à implémenter; il y a une
douzaine de brevets différents sur le sujet, mais, tous très couteux.
Donc, ils ne font cet effort que dans les SSDs haut de gamme; jamais dans
les machins USB. Rentabilité; pigeonnage du con-sommateur.
En x86, un core fait une seule opération à la fois

L'hyperthreading n'a pas été introduit pour pouvoir effectuer
simultanément plusieurs opérations sur des sous-circuits non concurrents
d'un même coeur ?

Avec beaucoup de limites ... et ça a été un assez bel échec.

C'est ce que j'avais cru comprendre (et constater avec mes P4), surtout
quand Intel ne l'a pas implémenté dans les Core et Core 2. Mais alors
pourquoi diable a-t-il été réintégré dans les générations suivantes ?

C'est la période ou j'ai déccroché.
Mais tout l'avenir d'intel dépendait de manière vitale sur le HT. Avoir du
désactiver le HT sur les serveurs leur a couté énormément en crédibilité.
MAis la technologie restait vitale pour rester en tête dans les bench
(n'oublie pas que les ventes dépendent des tests publiés par les forums et
blogs; donc les CPUs sont optimisés pour passer ces bench). Conserver le
HT restait vitale pour rester devant AMD. Le temps que les logiciels de
bench soit un peu modifiés; ça leur a laissé quelques mois pour améliorer
véritablement le hard.
Ensuite, les diverses failles de sécu qui ont obligé les possesseurs de P4
à désactiver le HT ... ont été corrigées (ça leur a couté une fortune; le
correctif leur a pris beaucoup de temps de dev, et a nécessité pas mal de
transistors; mais c'était ça ou déposer le bilan, ou se laisser doubler
par AMD qui préparait la sortie de l'AMD64). C'est là que bloqués entre
leur HT raté, et l'AMD64 à leurs trousses, ils ont migré vers la ligne P4
grand public un grand nombre de fonctions venant du Xéon. Des fonctions
développées depuis un bail, stables, prévues pour un CPU plus puissant;
donc très facile à porter (qui peut le plus peut le moins), et apportant
en gamme grand public des fonctions que les développeurs et les
compilateurs connaissaient depuis 10 ans: c'est comme ça que le P4 a pris
un coup de boost pas chère.
Et les arguments de vente du Xeon ne pesant plus très lourd devant les P4
grand public, les CPU serveurs-pro ont baissé de prix.
J'ai dit que le chipset en arrière du P4 était considérablemet différent
de celui derrière le P3; Intel a imposé ce changement radicale aux
constructeurs de carte mère; si pendant un temps ils ont du mettre le HT
de côté, la montée en fréquence, et en performances (arguments de vente)
dépendant de ce chipset, qui avait été conçu pour du HT. Sans HT, ce
nouveau chipset ne sert plus à rien, et l'accélération des perfs mouline
dans la semoule. Il fallait qu'il revienne.
C'est une époque ou AMD commençait à sortir de nouveaux CPU héritant des
compétences des ex-employés de Digital. Intel allait perdre des parts de
marché; fallait minimiser la casse.
Je ne savais pas que ça avait été retiré du Core; je me demande à quoi ont
servi les transistors libérés par la suppression du HT. Mais à la
reflexion, les Core, c'étaient pas la gamme mobile ? Il ne faudrait alors
pas dire qu'Intel les a supprimés des Core, mais qu'il leur a fallu un peu
de temps pour porter le module HT du P4 (station/serveur) vers les
mobiles. Il me semble que la série Core avait pour but de lancer Intel
dans l'économie d'énergie; le P4 a été leur CPU public le plus gourmand
(sans parler des pros comme le Xéon); et si on a vu des Cores en station,
il me semble que c'était le début de la diminution du coefficient
thermique (et le module HT consommait à mort). => leur priorité était de
diminuer l'énergie absorbée pour lancer les portables à haute autonomie.
Et c'est là qu'ils ont créé leur propre segment de marché, et qu'ils ont
largué AMD; sur des PC portables plus autonomes qu'AMD, et plus puissant
que les ARM (Acer, eeePC).
C'est une évolution des x86 post 2000; ce n'est pas une notion de base des
x86 originaux;

Argument spécieux. Si on suit cette mogique, il n'y avait pas non plus de
x86 originel multicoeur, donc parler de coeur pour un x86 n'a pas de sens.

Oui; tout dépend en quelle année on se place.
Et je vieillis; et tout ça me semble de plus en plus loin.
en fait, le HT date du P4; et déjà le Pentium 1 (686)
n'était plus un vrai x86. Donc, tout dépend de quel x86 on parle. C'est

Le premier Pentium est un 586, comme le MMX. C'est le Pentium Pro qui est
le premier 686, suivi par le Pentium II, le premier Celeron puis le
Pentium III.

Le vieux temps.
Leur pentium bugué.
Le céléron qui a été le processeur le plus stable de toute l'histoire;
j'ai facilement poussé mon 400MHz à 600; avec des reccords mondiaux à 2GHz
(helium liquide). Des gens l'ont fait tourner de manière stable et
continue entre 800 M et 1G (watrercooling avec réfrégirant).
--
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/

If computing were an exact science, IT engineers would'nt have work _o<
"So all that's left, Is the proof that love's not only blind but deaf."
(FAKE TALES OF SAN FRANCISCO, Arctic Monkeys)
Avatar
Benoit-Pierre DEMAINE
On 15/01/17 11:40, pehache wrote:
autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;

Quelle rupture ? Et avec quoi ? Windows s'installe nativement sur tous les
Mac x86, et un Mac est aujourd'hui un PC comme un autre.

J'ai dit, tu as coupé, ils ont dégagé le BIOS, pour un EFI; et à
l'occasion, le CPU ne démarre plus en compatible x86 (386), mais dans un
mode beaucoup plus évolué. Ca change plein de choses concernant
l'initialisation de la machine, l'initialisation des périphériques ... et
la sécurité du CPU (voir pourquoi les teams BSD avait initialement refuser
de porter leurs OS sur IBM-PC; et de fait, les premières failles de sécu
trouvées dans les BSD étaient des failles spécifiques aux CPU x86).
Les Windows actuels s'installent peut être sur les MACs actuels; c'était
pas le cas en 2002.
--
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/

If computing were an exact science, IT engineers would'nt have work _o<
"So all that's left, Is the proof that love's not only blind but deaf."
(FAKE TALES OF SAN FRANCISCO, Arctic Monkeys)
Avatar
Benoit-Pierre DEMAINE
On 14/01/17 19:21, FRITE wrote:
+1 il faut évidement raisonné en %
Depuis 2004, la fréquence des processeurs tend à stagner en raison de
difficultés de dissipation thermique, qui empêchent une montée en
fréquence en dépit de la taille plus faible des composants.
https://fr.wikipedia.org/wiki/Loi_de_Moore

J'ai dit ça y a 2j, on m'a prouvé le contraire, et j'ai admis. Cherche le
poste ou en début de message il y a un paragraphe avec 6 lignes indiquant
les fréquences par année.
Ensuite, tous les constructeurs n'ont pas ralentis pareils; plusieurs
liens ont été donnés, indiquant les évolutions de plusieurs marques.
--
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/

If computing were an exact science, IT engineers would'nt have work _o<
"So all that's left, Is the proof that love's not only blind but deaf."
(FAKE TALES OF SAN FRANCISCO, Arctic Monkeys)
Avatar
pehache
Le 15/01/2017 à 18:04, Benoit-Pierre DEMAINE a écrit :
On 15/01/17 11:40, pehache wrote:
autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;

Quelle rupture ? Et avec quoi ? Windows s'installe nativement sur tous les
Mac x86, et un Mac est aujourd'hui un PC comme un autre.

J'ai dit, tu as coupé, ils ont dégagé le BIOS, pour un EFI;

Ce n'est tout de même pas une grosse rupture...
et à
l'occasion, le CPU ne démarre plus en compatible x86 (386), mais dans un
mode beaucoup plus évolué. Ca change plein de choses concernant
l'initialisation de la machine, l'initialisation des périphériques ... et
la sécurité du CPU (voir pourquoi les teams BSD avait initialement refuser
de porter leurs OS sur IBM-PC; et de fait, les premières failles de sécu
trouvées dans les BSD étaient des failles spécifiques aux CPU x86).

Ca c'est parce que Apple n'avait besoin de s'encombrer d'aucune
contrainte de compatibilité avec le passé, alors que c'est (ou était)
une quasi-religion dans le monde PC-Windows.
Les Windows actuels s'installent peut être sur les MACs actuels; c'était
pas le cas en 2002.

Forcément, puisque les Mac x86 sont apparus en 2006.
Avatar
ast
"Benoit-Pierre DEMAINE" a écrit dans le message de
news:587964b5$0$689$
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors: depuis
2005-2010, on arrive plus à réduire.

Regarde ces données:
10 µm (1971) · 3 µm (1975) · 1,5 µm (1982) · 1 µm (1985) ·
800 nm (1989) · 600 nm (1994) · 350 nm (1995) · 250 nm (1997) ·
180 nm (1999) ·130 nm (2002) · 90 nm (2004) · 65 nm (2006) ·
45 nm (2008) · 32 nm (2010) · 22 nm (2012) · 14 nm (2014) ·
10 nm (2016-2017) · 7 nm (2017-2018) · 5 nm (2020-2021)
Sur les 10 dernières années la taille des transistors est passée de
65 à 10 nm. Le gain en surface x42 est énorme !
Pour la fréquence, tu as raison, elles plafonnent entre 3 et 4 Ghz
depuis pas mal d'années
Avatar
ast
"Benoit-Pierre DEMAINE" a écrit dans le message de
news:587bac60$0$3353$
On 14/01/17 19:21, FRITE wrote:
+1 il faut évidement raisonné en %
Depuis 2004, la fréquence des processeurs tend à stagner en raison de
difficultés de dissipation thermique, qui empêchent une montée en
fréquence en dépit de la taille plus faible des composants.
https://fr.wikipedia.org/wiki/Loi_de_Moore

J'ai dit ça y a 2j, on m'a prouvé le contraire, et j'ai admis. Cherche le
poste ou en début de message il y a un paragraphe avec 6 lignes indiquant
les fréquences par année.

Il y a la résistance des nets (connections entre les portes logiques) qui
augmentent au fur et à mesure que les dimensions dimimuent. Et cela
augmente les délais de propagation.
Avatar
Jo Engo
Le Sat, 14 Jan 2017 11:41:25 +0100, DV a écrit :
Cékoidonc, tdp ?

J'ai oublié. Avec une virgule, donc.
--
Chaque âge a ses plaisirs, son esprit et ses moeurs.
-+- Nicolas Boileau, Art poétique -+-
8 9 10 11 12