Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;
Comme l'a relevé ast, c'est faux.
Alors, on ajoute des coeurs en pagaille (Intel faisait du 32 coeurs il y a
déjà plusieurs années; j'ai pas suivi récement). Mais comme on a fait
que
du monocore pendant 20 ans, tout le monde a oublié comment on code en SMP;
du coup, très peu d'applications savent tirer profit de ces machines.
On n'a pas oublié. Il y a au contraire aujourd'hui bien plus d'outils
qu'il y a 20 ans pour développer des applis tirant partie du
parallélisme. c'est juste que ce n'est pas si simple que ça : certains
algos se parallélisent très facilement, d'autres difficilement, ou mal,
ou pas du tout.
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés.
La raison principale est surtout que depuis 15 ans la vitesse de traitement
des CPU a augmenté plus vite que la latence de la RAM a diminué, ce qui
fait que hors calculs complexes (encodage d'une video par exemple) les CPU
passent aujourd'hui le plus clair de leur temps à "attendre les données".
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :
Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;
Comme l'a relevé ast, c'est faux.
Alors, on ajoute des coeurs en pagaille (Intel faisait du 32 coeurs il y a
déjà plusieurs années; j'ai pas suivi récement). Mais comme on a fait
que
du monocore pendant 20 ans, tout le monde a oublié comment on code en SMP;
du coup, très peu d'applications savent tirer profit de ces machines.
On n'a pas oublié. Il y a au contraire aujourd'hui bien plus d'outils
qu'il y a 20 ans pour développer des applis tirant partie du
parallélisme. c'est juste que ce n'est pas si simple que ça : certains
algos se parallélisent très facilement, d'autres difficilement, ou mal,
ou pas du tout.
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés.
La raison principale est surtout que depuis 15 ans la vitesse de traitement
des CPU a augmenté plus vite que la latence de la RAM a diminué, ce qui
fait que hors calculs complexes (encodage d'une video par exemple) les CPU
passent aujourd'hui le plus clair de leur temps à "attendre les données".
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;
Comme l'a relevé ast, c'est faux.
Alors, on ajoute des coeurs en pagaille (Intel faisait du 32 coeurs il y a
déjà plusieurs années; j'ai pas suivi récement). Mais comme on a fait
que
du monocore pendant 20 ans, tout le monde a oublié comment on code en SMP;
du coup, très peu d'applications savent tirer profit de ces machines.
On n'a pas oublié. Il y a au contraire aujourd'hui bien plus d'outils
qu'il y a 20 ans pour développer des applis tirant partie du
parallélisme. c'est juste que ce n'est pas si simple que ça : certains
algos se parallélisent très facilement, d'autres difficilement, ou mal,
ou pas du tout.
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés.
La raison principale est surtout que depuis 15 ans la vitesse de traitement
des CPU a augmenté plus vite que la latence de la RAM a diminué, ce qui
fait que hors calculs complexes (encodage d'une video par exemple) les CPU
passent aujourd'hui le plus clair de leur temps à "attendre les données".
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
Pourquoi vouloir plus de 8 Go???
Lorsqu'on utilise simultanément plusieurs logiciels gourmands en mémoire
c'est indispensable...
Même si ce n'est pas le cas de la plupart des gens.
J'ai acheté 64 cœurs et 128Go de RAM.
64 cœurs !!!!!
c'est quoi et quel OS ???????
Un serveur HP sous Windows, le plus drôle c'est qu'on découvre après
qu'il faut payer la licence à Microsoft "par cœur !"
Pourquoi vouloir plus de 8 Go???
Lorsqu'on utilise simultanément plusieurs logiciels gourmands en mémoire
c'est indispensable...
Même si ce n'est pas le cas de la plupart des gens.
J'ai acheté 64 cœurs et 128Go de RAM.
64 cœurs !!!!!
c'est quoi et quel OS ???????
Un serveur HP sous Windows, le plus drôle c'est qu'on découvre après
qu'il faut payer la licence à Microsoft "par cœur !"
Pourquoi vouloir plus de 8 Go???
Lorsqu'on utilise simultanément plusieurs logiciels gourmands en mémoire
c'est indispensable...
Même si ce n'est pas le cas de la plupart des gens.
J'ai acheté 64 cœurs et 128Go de RAM.
64 cœurs !!!!!
c'est quoi et quel OS ???????
Un serveur HP sous Windows, le plus drôle c'est qu'on découvre après
qu'il faut payer la licence à Microsoft "par cœur !"
Le 11/01/2017 à 10:58, pehache a écrit :Le 10/01/2017 à 11:59, FRITE a écrit :Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
C'est donc bêtement par habitude mais sans justifications techniques
dans 95% des cas.
(mais dans le passé c'était justifié voir indispensable)
Pour preuve certain PC ne permettent pas d'augmenter la RAM car les
constructeurs savent que cela n'est plus indispensable.
Le 11/01/2017 à 10:58, pehache a écrit :
Le 10/01/2017 à 11:59, FRITE a écrit :
Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
C'est donc bêtement par habitude mais sans justifications techniques
dans 95% des cas.
(mais dans le passé c'était justifié voir indispensable)
Pour preuve certain PC ne permettent pas d'augmenter la RAM car les
constructeurs savent que cela n'est plus indispensable.
Le 11/01/2017 à 10:58, pehache a écrit :Le 10/01/2017 à 11:59, FRITE a écrit :Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
C'est donc bêtement par habitude mais sans justifications techniques
dans 95% des cas.
(mais dans le passé c'était justifié voir indispensable)
Pour preuve certain PC ne permettent pas d'augmenter la RAM car les
constructeurs savent que cela n'est plus indispensable.
On 11/01/17 10:58, pehache wrote:Le 10/01/2017 à 11:59, FRITE a écrit :Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
Complètement stupide. Aucune application n'aura jamais besoin de plus de 64kB.
On 11/01/17 10:58, pehache wrote:
Le 10/01/2017 à 11:59, FRITE a écrit :
Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
Complètement stupide. Aucune application n'aura jamais besoin de plus de 64kB.
On 11/01/17 10:58, pehache wrote:Le 10/01/2017 à 11:59, FRITE a écrit :Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
Complètement stupide. Aucune application n'aura jamais besoin de plus de 64kB.
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés.
La raison principale est surtout que depuis 15 ans la vitesse de traitement
des CPU a augmenté plus vite que la latence de la RAM a diminué, ce qui
fait que hors calculs complexes (encodage d'une video par exemple) les CPU
passent aujourd'hui le plus clair de leur temps à "attendre les données".
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés.
La raison principale est surtout que depuis 15 ans la vitesse de traitement
des CPU a augmenté plus vite que la latence de la RAM a diminué, ce qui
fait que hors calculs complexes (encodage d'une video par exemple) les CPU
passent aujourd'hui le plus clair de leur temps à "attendre les données".
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés.
La raison principale est surtout que depuis 15 ans la vitesse de traitement
des CPU a augmenté plus vite que la latence de la RAM a diminué, ce qui
fait que hors calculs complexes (encodage d'une video par exemple) les CPU
passent aujourd'hui le plus clair de leur temps à "attendre les données".
On 11/01/17 11:10, pehache wrote:Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;
Comme l'a relevé ast, c'est faux.
On est entre 80 et 150 atomes selon les fonderies; expliquer les détails
de pourquoi certains butent à 100 atomes, quand d'autres ont de bons
espoirs de descendre a 20-10 devient trop délicat pour moi.
Rigolo. Quand je fais long, on me repproche de faire long; quand je fais
court, on me repproche de faire court.
Donc, si la loi de Moore est censée ne concerner que le matériel, les
évolutions industrielles récentes font qu'on ne peut pas se contenter de
cette approche: la PS3 était un très bon exemple de matériel mal exploité
par défaut de compétence. Ca sert a rien d'avoir des transistors si on ne
s'en sert pas (circuits trop spécialisés, ou programmeur incompétent). Et
vu la formulation de la question initiale, cet angle là me semble beaucoup
plus important que de donner la date exacte ou on fabriquera un transistor
avec un seul atome.
Dès 1994 Digital avait ce problème; leur solution était super simple:
"mec, ta RAM est trop lente pour mon CPU; donc, on va en mettre deux en
alternance d'horloges". Principe qu'on retrouve dans les AMD64; puisqu'à
la fermeture de Digital une bonne partie des employés est partie chez AMD
(Intel ayant racheté les brevets, mais sans avoir les ingénieurs pour les
exploiter).
Donc, selon l'archi, certains ont décidé, ou pas, de mettre en place des
solutions.
Une autre approche consiste à prendre un processeur réputé trop rapide,
pour le downclocker, et bénéficier alors qu'une économie d'énergie
notable, comparé à un autre CPU dont la fréquence voulue serait la
fréquence nominale. On peut alors faire de la pub sur le fait que c'est
une machine économique électriquement; là ou un geek averti pourra,
moyennant consommation électrique, s'amuser à repousser le CPU à sa
fréquence d'origine. Et retomber dans le problème que tu soulève.
On 11/01/17 11:10, pehache wrote:
Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :
Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;
Comme l'a relevé ast, c'est faux.
On est entre 80 et 150 atomes selon les fonderies; expliquer les détails
de pourquoi certains butent à 100 atomes, quand d'autres ont de bons
espoirs de descendre a 20-10 devient trop délicat pour moi.
Rigolo. Quand je fais long, on me repproche de faire long; quand je fais
court, on me repproche de faire court.
Donc, si la loi de Moore est censée ne concerner que le matériel, les
évolutions industrielles récentes font qu'on ne peut pas se contenter de
cette approche: la PS3 était un très bon exemple de matériel mal exploité
par défaut de compétence. Ca sert a rien d'avoir des transistors si on ne
s'en sert pas (circuits trop spécialisés, ou programmeur incompétent). Et
vu la formulation de la question initiale, cet angle là me semble beaucoup
plus important que de donner la date exacte ou on fabriquera un transistor
avec un seul atome.
Dès 1994 Digital avait ce problème; leur solution était super simple:
"mec, ta RAM est trop lente pour mon CPU; donc, on va en mettre deux en
alternance d'horloges". Principe qu'on retrouve dans les AMD64; puisqu'à
la fermeture de Digital une bonne partie des employés est partie chez AMD
(Intel ayant racheté les brevets, mais sans avoir les ingénieurs pour les
exploiter).
Donc, selon l'archi, certains ont décidé, ou pas, de mettre en place des
solutions.
Une autre approche consiste à prendre un processeur réputé trop rapide,
pour le downclocker, et bénéficier alors qu'une économie d'énergie
notable, comparé à un autre CPU dont la fréquence voulue serait la
fréquence nominale. On peut alors faire de la pub sur le fait que c'est
une machine économique électriquement; là ou un geek averti pourra,
moyennant consommation électrique, s'amuser à repousser le CPU à sa
fréquence d'origine. Et retomber dans le problème que tu soulève.
On 11/01/17 11:10, pehache wrote:Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;
Comme l'a relevé ast, c'est faux.
On est entre 80 et 150 atomes selon les fonderies; expliquer les détails
de pourquoi certains butent à 100 atomes, quand d'autres ont de bons
espoirs de descendre a 20-10 devient trop délicat pour moi.
Rigolo. Quand je fais long, on me repproche de faire long; quand je fais
court, on me repproche de faire court.
Donc, si la loi de Moore est censée ne concerner que le matériel, les
évolutions industrielles récentes font qu'on ne peut pas se contenter de
cette approche: la PS3 était un très bon exemple de matériel mal exploité
par défaut de compétence. Ca sert a rien d'avoir des transistors si on ne
s'en sert pas (circuits trop spécialisés, ou programmeur incompétent). Et
vu la formulation de la question initiale, cet angle là me semble beaucoup
plus important que de donner la date exacte ou on fabriquera un transistor
avec un seul atome.
Dès 1994 Digital avait ce problème; leur solution était super simple:
"mec, ta RAM est trop lente pour mon CPU; donc, on va en mettre deux en
alternance d'horloges". Principe qu'on retrouve dans les AMD64; puisqu'à
la fermeture de Digital une bonne partie des employés est partie chez AMD
(Intel ayant racheté les brevets, mais sans avoir les ingénieurs pour les
exploiter).
Donc, selon l'archi, certains ont décidé, ou pas, de mettre en place des
solutions.
Une autre approche consiste à prendre un processeur réputé trop rapide,
pour le downclocker, et bénéficier alors qu'une économie d'énergie
notable, comparé à un autre CPU dont la fréquence voulue serait la
fréquence nominale. On peut alors faire de la pub sur le fait que c'est
une machine économique électriquement; là ou un geek averti pourra,
moyennant consommation électrique, s'amuser à repousser le CPU à sa
fréquence d'origine. Et retomber dans le problème que tu soulève.
On Wed, 11 Jan 2017 12:38:56 +0100, Benoit-Pierre DEMAINE
wrote:On 11/01/17 10:58, pehache wrote:Le 10/01/2017 à 11:59, FRITE a écrit :Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
Complètement stupide. Aucune application n'aura jamais besoin de plus de 64kB.
hummmmm... je sais pas trop comment le prendre, soit c'est une
référence ancienne qui vise à prouver que on aura toujours besoin de
plus (64Ko j'ai presque ça sur mon arduino), soit c'est une
affirmation entachée d'une erreur d'échelle, dans ce cas je dirais que
la plupart qui avancent que "plus" ne sera jamais nécéssaire le font
dans le déni (ou la méconnaissance) de l'évolution des environnements
informatiques et des besoins de complexification que les nouvelles
technologies créeent.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
On Wed, 11 Jan 2017 12:38:56 +0100, Benoit-Pierre DEMAINE
<nntp_pipex@demaine.info> wrote:
On 11/01/17 10:58, pehache wrote:
Le 10/01/2017 à 11:59, FRITE a écrit :
Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
Complètement stupide. Aucune application n'aura jamais besoin de plus de 64kB.
hummmmm... je sais pas trop comment le prendre, soit c'est une
référence ancienne qui vise à prouver que on aura toujours besoin de
plus (64Ko j'ai presque ça sur mon arduino), soit c'est une
affirmation entachée d'une erreur d'échelle, dans ce cas je dirais que
la plupart qui avancent que "plus" ne sera jamais nécéssaire le font
dans le déni (ou la méconnaissance) de l'évolution des environnements
informatiques et des besoins de complexification que les nouvelles
technologies créeent.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
On Wed, 11 Jan 2017 12:38:56 +0100, Benoit-Pierre DEMAINE
wrote:On 11/01/17 10:58, pehache wrote:Le 10/01/2017 à 11:59, FRITE a écrit :Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
Complètement stupide. Aucune application n'aura jamais besoin de plus de 64kB.
hummmmm... je sais pas trop comment le prendre, soit c'est une
référence ancienne qui vise à prouver que on aura toujours besoin de
plus (64Ko j'ai presque ça sur mon arduino), soit c'est une
affirmation entachée d'une erreur d'échelle, dans ce cas je dirais que
la plupart qui avancent que "plus" ne sera jamais nécéssaire le font
dans le déni (ou la méconnaissance) de l'évolution des environnements
informatiques et des besoins de complexification que les nouvelles
technologies créeent.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
On Wed, 11 Jan 2017 12:11:35 +0100, FRITE
wrote:Le 11/01/2017 à 10:58, pehache a écrit :Le 10/01/2017 à 11:59, FRITE a écrit :Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
C'est donc bêtement par habitude mais sans justifications techniques
dans 95% des cas.
(mais dans le passé c'était justifié voir indispensable)
Pour preuve certain PC ne permettent pas d'augmenter la RAM car les
constructeurs savent que cela n'est plus indispensable.
heu, non c'est pas une preuve que plus de mémoire ne se justifie pas
dans certains cas, mais juste qu'il existe *pour des raisons de cout*
des chips qui ne savent pas gérer plus d'une certaine quantité de
mémoire par barrette, et donc totale en fonction du nombre de slot,
lui aussi réduit dans les bas prix.
(chercher 809208-B21 juste histoire de se marrer un coup)
Plus de 8Go pour notepad++, c'est pas nécéssaire, mais dès que tu
touche certains soft de montage vidéo, de jeux, de virtualisation, ça
commence à avoir du sens, et quand tu en execute plusieurs à la fois,
ça devient indispensable.
On Wed, 11 Jan 2017 12:11:35 +0100, FRITE <frite2@free.fr.invalid>
wrote:
Le 11/01/2017 à 10:58, pehache a écrit :
Le 10/01/2017 à 11:59, FRITE a écrit :
Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
C'est donc bêtement par habitude mais sans justifications techniques
dans 95% des cas.
(mais dans le passé c'était justifié voir indispensable)
Pour preuve certain PC ne permettent pas d'augmenter la RAM car les
constructeurs savent que cela n'est plus indispensable.
heu, non c'est pas une preuve que plus de mémoire ne se justifie pas
dans certains cas, mais juste qu'il existe *pour des raisons de cout*
des chips qui ne savent pas gérer plus d'une certaine quantité de
mémoire par barrette, et donc totale en fonction du nombre de slot,
lui aussi réduit dans les bas prix.
(chercher 809208-B21 juste histoire de se marrer un coup)
Plus de 8Go pour notepad++, c'est pas nécéssaire, mais dès que tu
touche certains soft de montage vidéo, de jeux, de virtualisation, ça
commence à avoir du sens, et quand tu en execute plusieurs à la fois,
ça devient indispensable.
On Wed, 11 Jan 2017 12:11:35 +0100, FRITE
wrote:Le 11/01/2017 à 10:58, pehache a écrit :Le 10/01/2017 à 11:59, FRITE a écrit :Pourquoi vouloir plus de 8 Go? ? ?
Pour la même raison qu'on voulait plus de 4Go il y a 2 ans, plus de 2Go il
y a 4 ans, etc...
C'est donc bêtement par habitude mais sans justifications techniques
dans 95% des cas.
(mais dans le passé c'était justifié voir indispensable)
Pour preuve certain PC ne permettent pas d'augmenter la RAM car les
constructeurs savent que cela n'est plus indispensable.
heu, non c'est pas une preuve que plus de mémoire ne se justifie pas
dans certains cas, mais juste qu'il existe *pour des raisons de cout*
des chips qui ne savent pas gérer plus d'une certaine quantité de
mémoire par barrette, et donc totale en fonction du nombre de slot,
lui aussi réduit dans les bas prix.
(chercher 809208-B21 juste histoire de se marrer un coup)
Plus de 8Go pour notepad++, c'est pas nécéssaire, mais dès que tu
touche certains soft de montage vidéo, de jeux, de virtualisation, ça
commence à avoir du sens, et quand tu en execute plusieurs à la fois,
ça devient indispensable.
On Wed, 11 Jan 2017 12:56:09 +0100, Benoit-Pierre DEMAINE
wrote:On 11/01/17 11:10, pehache wrote:Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;
Comme l'a relevé ast, c'est faux.
On est entre 80 et 150 atomes selon les fonderies; expliquer les détails
de pourquoi certains butent à 100 atomes, quand d'autres ont de bons
espoirs de descendre a 20-10 devient trop délicat pour moi.
je n'y maginais pas qu'on soit descendu aussi proche de l'atome
une transition vers l'optique en ransposant la techno actuelle
probablement, ou alors changement radical si le quantique aboutit.
Une autre approche consiste à prendre un processeur réputé trop rapide,
pour le downclocker, et bénéficier alors qu'une économie d'énergie
notable, comparé à un autre CPU dont la fréquence voulue serait la
fréquence nominale. On peut alors faire de la pub sur le fait que c'est
une machine économique électriquement; là ou un geek averti pourra,
moyennant consommation électrique, s'amuser à repousser le CPU à sa
fréquence d'origine. Et retomber dans le problème que tu soulève.
le burst c'est parfois interressant, et la mémoire L2/L3 et algo de
prediction d'accès ont évolumé il me semble.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
On Wed, 11 Jan 2017 12:56:09 +0100, Benoit-Pierre DEMAINE
<nntp_pipex@demaine.info> wrote:
On 11/01/17 11:10, pehache wrote:
Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :
Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;
Comme l'a relevé ast, c'est faux.
On est entre 80 et 150 atomes selon les fonderies; expliquer les détails
de pourquoi certains butent à 100 atomes, quand d'autres ont de bons
espoirs de descendre a 20-10 devient trop délicat pour moi.
je n'y maginais pas qu'on soit descendu aussi proche de l'atome
une transition vers l'optique en ransposant la techno actuelle
probablement, ou alors changement radical si le quantique aboutit.
Une autre approche consiste à prendre un processeur réputé trop rapide,
pour le downclocker, et bénéficier alors qu'une économie d'énergie
notable, comparé à un autre CPU dont la fréquence voulue serait la
fréquence nominale. On peut alors faire de la pub sur le fait que c'est
une machine économique électriquement; là ou un geek averti pourra,
moyennant consommation électrique, s'amuser à repousser le CPU à sa
fréquence d'origine. Et retomber dans le problème que tu soulève.
le burst c'est parfois interressant, et la mémoire L2/L3 et algo de
prediction d'accès ont évolumé il me semble.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
On Wed, 11 Jan 2017 12:56:09 +0100, Benoit-Pierre DEMAINE
wrote:On 11/01/17 11:10, pehache wrote:Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :Depuis 10 ans,
ayant atteint l'échelle atomique, on ne peut plus réduire la dimension
d'un transistor;
Comme l'a relevé ast, c'est faux.
On est entre 80 et 150 atomes selon les fonderies; expliquer les détails
de pourquoi certains butent à 100 atomes, quand d'autres ont de bons
espoirs de descendre a 20-10 devient trop délicat pour moi.
je n'y maginais pas qu'on soit descendu aussi proche de l'atome
une transition vers l'optique en ransposant la techno actuelle
probablement, ou alors changement radical si le quantique aboutit.
Une autre approche consiste à prendre un processeur réputé trop rapide,
pour le downclocker, et bénéficier alors qu'une économie d'énergie
notable, comparé à un autre CPU dont la fréquence voulue serait la
fréquence nominale. On peut alors faire de la pub sur le fait que c'est
une machine économique électriquement; là ou un geek averti pourra,
moyennant consommation électrique, s'amuser à repousser le CPU à sa
fréquence d'origine. Et retomber dans le problème que tu soulève.
le burst c'est parfois interressant, et la mémoire L2/L3 et algo de
prediction d'accès ont évolumé il me semble.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
(chercher 809208-B21 juste histoire de se marrer un coup)
Vous confirmez Si l'on ne trouve pas 128Go sur les PC standards ce n'est
pas un problème de technologie (Arrêt de la loi de Moore)
mais simplement ce n'est pas une priorité pour l'acheteur de PC.
Le Marché à toujours raison.Plus de 8Go pour notepad++, c'est pas nécéssaire, mais dès que tu
(chercher 809208-B21 juste histoire de se marrer un coup)
Vous confirmez Si l'on ne trouve pas 128Go sur les PC standards ce n'est
pas un problème de technologie (Arrêt de la loi de Moore)
mais simplement ce n'est pas une priorité pour l'acheteur de PC.
Le Marché à toujours raison.
Plus de 8Go pour notepad++, c'est pas nécéssaire, mais dès que tu
(chercher 809208-B21 juste histoire de se marrer un coup)
Vous confirmez Si l'on ne trouve pas 128Go sur les PC standards ce n'est
pas un problème de technologie (Arrêt de la loi de Moore)
mais simplement ce n'est pas une priorité pour l'acheteur de PC.
Le Marché à toujours raison.Plus de 8Go pour notepad++, c'est pas nécéssaire, mais dès que tu