C'est logique, la standardisation d'un marché permet de grandes économies
d'échelle.
Et du coup, fait peur à l'innovation technologique. On a le droit
d'innover "un peu", mais, fait pas vouloir en changer trop d'un coup. Au
final, impossible de repartir de zero.
Autant je suis déçu qu'Apple soit passé aux x86,
autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;
C'est logique, la standardisation d'un marché permet de grandes économies
d'échelle.
Et du coup, fait peur à l'innovation technologique. On a le droit
d'innover "un peu", mais, fait pas vouloir en changer trop d'un coup. Au
final, impossible de repartir de zero.
Autant je suis déçu qu'Apple soit passé aux x86,
autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;
C'est logique, la standardisation d'un marché permet de grandes économies
d'échelle.
Et du coup, fait peur à l'innovation technologique. On a le droit
d'innover "un peu", mais, fait pas vouloir en changer trop d'un coup. Au
final, impossible de repartir de zero.
Autant je suis déçu qu'Apple soit passé aux x86,
autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;
On 14/01/17 09:00, pehache wrote:Le 14/01/2017 à 01:36, Benoit-Pierre DEMAINE a écrit :C'est là que je vais dévier sur un nouvel usage intensif des transistors.
Car, il y a une technologie très récente, qui n'existait pas à l'époque de
Moore, qui a BEAUCOUP évoluée depuis 20 ans, et dont l'évolution a façonné
notre monde récent: la FLASH. La flash se situe pas vraiment entre la RAM
et le CPU; mais un peu en marge des deux.
Ca veut dire quoi "en marge des deux" ?? La mémoire flash n'est pas de la
RAM et n'a rien à voir avec un CPU, c'est tout.
C'est une mémoire; un ensemble de transistor prévu pour le stockage
d'information; pas pour la manipulation et le calcul. Et sa structure est
passablement auto-similaire (comme une RAM; mais pas comme un CPU).
Mais la stabilité du stockage nécessite une structure qui n'a pas grand
chose en commun avec les RAM.
=> la manière dont les transistors sont construits dans une FLASH n'a donc
que peu de points communs avec RAM ou CPU.
Pourtant, les FLASH sont une énorme proportion de ce qui sort des
fonderies. Il me semble donc improtant d'évoquer, dans un sujet sur
comment les technologies numériques évoluent avec le temps, d'évoquer ce
nouvel aspect. Puisque le sujet a évoqué qu'il fallait passer des CPU aux
RAM,
je dis qu'il faut passer des RAM aux FLASH. Parce que la flash est un
facteur technologique majeur aujourd'hui.
On 14/01/17 09:00, pehache wrote:
Le 14/01/2017 à 01:36, Benoit-Pierre DEMAINE a écrit :
C'est là que je vais dévier sur un nouvel usage intensif des transistors.
Car, il y a une technologie très récente, qui n'existait pas à l'époque de
Moore, qui a BEAUCOUP évoluée depuis 20 ans, et dont l'évolution a façonné
notre monde récent: la FLASH. La flash se situe pas vraiment entre la RAM
et le CPU; mais un peu en marge des deux.
Ca veut dire quoi "en marge des deux" ?? La mémoire flash n'est pas de la
RAM et n'a rien à voir avec un CPU, c'est tout.
C'est une mémoire; un ensemble de transistor prévu pour le stockage
d'information; pas pour la manipulation et le calcul. Et sa structure est
passablement auto-similaire (comme une RAM; mais pas comme un CPU).
Mais la stabilité du stockage nécessite une structure qui n'a pas grand
chose en commun avec les RAM.
=> la manière dont les transistors sont construits dans une FLASH n'a donc
que peu de points communs avec RAM ou CPU.
Pourtant, les FLASH sont une énorme proportion de ce qui sort des
fonderies. Il me semble donc improtant d'évoquer, dans un sujet sur
comment les technologies numériques évoluent avec le temps, d'évoquer ce
nouvel aspect. Puisque le sujet a évoqué qu'il fallait passer des CPU aux
RAM,
je dis qu'il faut passer des RAM aux FLASH. Parce que la flash est un
facteur technologique majeur aujourd'hui.
On 14/01/17 09:00, pehache wrote:Le 14/01/2017 à 01:36, Benoit-Pierre DEMAINE a écrit :C'est là que je vais dévier sur un nouvel usage intensif des transistors.
Car, il y a une technologie très récente, qui n'existait pas à l'époque de
Moore, qui a BEAUCOUP évoluée depuis 20 ans, et dont l'évolution a façonné
notre monde récent: la FLASH. La flash se situe pas vraiment entre la RAM
et le CPU; mais un peu en marge des deux.
Ca veut dire quoi "en marge des deux" ?? La mémoire flash n'est pas de la
RAM et n'a rien à voir avec un CPU, c'est tout.
C'est une mémoire; un ensemble de transistor prévu pour le stockage
d'information; pas pour la manipulation et le calcul. Et sa structure est
passablement auto-similaire (comme une RAM; mais pas comme un CPU).
Mais la stabilité du stockage nécessite une structure qui n'a pas grand
chose en commun avec les RAM.
=> la manière dont les transistors sont construits dans une FLASH n'a donc
que peu de points communs avec RAM ou CPU.
Pourtant, les FLASH sont une énorme proportion de ce qui sort des
fonderies. Il me semble donc improtant d'évoquer, dans un sujet sur
comment les technologies numériques évoluent avec le temps, d'évoquer ce
nouvel aspect. Puisque le sujet a évoqué qu'il fallait passer des CPU aux
RAM,
je dis qu'il faut passer des RAM aux FLASH. Parce que la flash est un
facteur technologique majeur aujourd'hui.
L'hyperthreading n'a pas été introduit pour pouvoir effectuer
simultanément plusieurs opérations sur des sous-circuits non concurrents
d'un même coeur ?
Avec beaucoup de limites ... et ça a été un assez bel échec.
C'est ce que j'avais cru comprendre (et constater avec mes P4), surtout
quand Intel ne l'a pas implémenté dans les Core et Core 2. Mais alors
pourquoi diable a-t-il été réintégré dans les générations suivantes ?
L'hyperthreading n'a pas été introduit pour pouvoir effectuer
simultanément plusieurs opérations sur des sous-circuits non concurrents
d'un même coeur ?
Avec beaucoup de limites ... et ça a été un assez bel échec.
C'est ce que j'avais cru comprendre (et constater avec mes P4), surtout
quand Intel ne l'a pas implémenté dans les Core et Core 2. Mais alors
pourquoi diable a-t-il été réintégré dans les générations suivantes ?
L'hyperthreading n'a pas été introduit pour pouvoir effectuer
simultanément plusieurs opérations sur des sous-circuits non concurrents
d'un même coeur ?
Avec beaucoup de limites ... et ça a été un assez bel échec.
C'est ce que j'avais cru comprendre (et constater avec mes P4), surtout
quand Intel ne l'a pas implémenté dans les Core et Core 2. Mais alors
pourquoi diable a-t-il été réintégré dans les générations suivantes ?
Aspect, lui aussi variable selon les produits. Dans une bricole USB à 3e,
l'overprovisioning est nul: 0%.
J'en doute. Si je considère une "bricole USB à 3 €" de 8 Go en ma
possession, sa capacité visible est de quasiment 8 Go (8 milliards
d'octets) tout rond, alors que je parie que sa capacité physique réelle
est de 8 Gio
Dans un disque SSD 120GB SATA3 à 300e ...
j'ai entendu parler de 40%.
Et effectivement, dans ce cas là, j'oserais dire qu'on espère même ne
jamais avoir besoin d'utiliser la marge.
J'espère bien que si. Si c'est à cela que tu penses, l'overprovisioning ne
sert pas seulement à remplacer les blocs défectueux. Il sert aussi au
nivellement de l'usure, au "ramasse-miettes" (garbage collector), à
l'effacement différé (indispensable pour des performances décentes en
écriture ; s'il fallait effacer un bloc juste avant de l'écrire, ce serait
horriblement lent)...
En x86, un core fait une seule opération à la fois
L'hyperthreading n'a pas été introduit pour pouvoir effectuer
simultanément plusieurs opérations sur des sous-circuits non concurrents
d'un même coeur ?
Avec beaucoup de limites ... et ça a été un assez bel échec.
C'est ce que j'avais cru comprendre (et constater avec mes P4), surtout
quand Intel ne l'a pas implémenté dans les Core et Core 2. Mais alors
pourquoi diable a-t-il été réintégré dans les générations suivantes ?
C'est une évolution des x86 post 2000; ce n'est pas une notion de base des
x86 originaux;
Argument spécieux. Si on suit cette mogique, il n'y avait pas non plus de
x86 originel multicoeur, donc parler de coeur pour un x86 n'a pas de sens.
en fait, le HT date du P4; et déjà le Pentium 1 (686)
n'était plus un vrai x86. Donc, tout dépend de quel x86 on parle. C'est
Le premier Pentium est un 586, comme le MMX. C'est le Pentium Pro qui est
le premier 686, suivi par le Pentium II, le premier Celeron puis le
Pentium III.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
Aspect, lui aussi variable selon les produits. Dans une bricole USB à 3e,
l'overprovisioning est nul: 0%.
J'en doute. Si je considère une "bricole USB à 3 €" de 8 Go en ma
possession, sa capacité visible est de quasiment 8 Go (8 milliards
d'octets) tout rond, alors que je parie que sa capacité physique réelle
est de 8 Gio
Dans un disque SSD 120GB SATA3 à 300e ...
j'ai entendu parler de 40%.
Et effectivement, dans ce cas là, j'oserais dire qu'on espère même ne
jamais avoir besoin d'utiliser la marge.
J'espère bien que si. Si c'est à cela que tu penses, l'overprovisioning ne
sert pas seulement à remplacer les blocs défectueux. Il sert aussi au
nivellement de l'usure, au "ramasse-miettes" (garbage collector), à
l'effacement différé (indispensable pour des performances décentes en
écriture ; s'il fallait effacer un bloc juste avant de l'écrire, ce serait
horriblement lent)...
En x86, un core fait une seule opération à la fois
L'hyperthreading n'a pas été introduit pour pouvoir effectuer
simultanément plusieurs opérations sur des sous-circuits non concurrents
d'un même coeur ?
Avec beaucoup de limites ... et ça a été un assez bel échec.
C'est ce que j'avais cru comprendre (et constater avec mes P4), surtout
quand Intel ne l'a pas implémenté dans les Core et Core 2. Mais alors
pourquoi diable a-t-il été réintégré dans les générations suivantes ?
C'est une évolution des x86 post 2000; ce n'est pas une notion de base des
x86 originaux;
Argument spécieux. Si on suit cette mogique, il n'y avait pas non plus de
x86 originel multicoeur, donc parler de coeur pour un x86 n'a pas de sens.
en fait, le HT date du P4; et déjà le Pentium 1 (686)
n'était plus un vrai x86. Donc, tout dépend de quel x86 on parle. C'est
Le premier Pentium est un 586, comme le MMX. C'est le Pentium Pro qui est
le premier 686, suivi par le Pentium II, le premier Celeron puis le
Pentium III.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
Aspect, lui aussi variable selon les produits. Dans une bricole USB à 3e,
l'overprovisioning est nul: 0%.
J'en doute. Si je considère une "bricole USB à 3 €" de 8 Go en ma
possession, sa capacité visible est de quasiment 8 Go (8 milliards
d'octets) tout rond, alors que je parie que sa capacité physique réelle
est de 8 Gio
Dans un disque SSD 120GB SATA3 à 300e ...
j'ai entendu parler de 40%.
Et effectivement, dans ce cas là, j'oserais dire qu'on espère même ne
jamais avoir besoin d'utiliser la marge.
J'espère bien que si. Si c'est à cela que tu penses, l'overprovisioning ne
sert pas seulement à remplacer les blocs défectueux. Il sert aussi au
nivellement de l'usure, au "ramasse-miettes" (garbage collector), à
l'effacement différé (indispensable pour des performances décentes en
écriture ; s'il fallait effacer un bloc juste avant de l'écrire, ce serait
horriblement lent)...
En x86, un core fait une seule opération à la fois
L'hyperthreading n'a pas été introduit pour pouvoir effectuer
simultanément plusieurs opérations sur des sous-circuits non concurrents
d'un même coeur ?
Avec beaucoup de limites ... et ça a été un assez bel échec.
C'est ce que j'avais cru comprendre (et constater avec mes P4), surtout
quand Intel ne l'a pas implémenté dans les Core et Core 2. Mais alors
pourquoi diable a-t-il été réintégré dans les générations suivantes ?
C'est une évolution des x86 post 2000; ce n'est pas une notion de base des
x86 originaux;
Argument spécieux. Si on suit cette mogique, il n'y avait pas non plus de
x86 originel multicoeur, donc parler de coeur pour un x86 n'a pas de sens.
en fait, le HT date du P4; et déjà le Pentium 1 (686)
n'était plus un vrai x86. Donc, tout dépend de quel x86 on parle. C'est
Le premier Pentium est un 586, comme le MMX. C'est le Pentium Pro qui est
le premier 686, suivi par le Pentium II, le premier Celeron puis le
Pentium III.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;
Quelle rupture ? Et avec quoi ? Windows s'installe nativement sur tous les
Mac x86, et un Mac est aujourd'hui un PC comme un autre.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;
Quelle rupture ? Et avec quoi ? Windows s'installe nativement sur tous les
Mac x86, et un Mac est aujourd'hui un PC comme un autre.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;
Quelle rupture ? Et avec quoi ? Windows s'installe nativement sur tous les
Mac x86, et un Mac est aujourd'hui un PC comme un autre.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
+1 il faut évidement raisonné en %
Depuis 2004, la fréquence des processeurs tend à stagner en raison de
difficultés de dissipation thermique, qui empêchent une montée en
fréquence en dépit de la taille plus faible des composants.
https://fr.wikipedia.org/wiki/Loi_de_Moore
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
+1 il faut évidement raisonné en %
Depuis 2004, la fréquence des processeurs tend à stagner en raison de
difficultés de dissipation thermique, qui empêchent une montée en
fréquence en dépit de la taille plus faible des composants.
https://fr.wikipedia.org/wiki/Loi_de_Moore
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
+1 il faut évidement raisonné en %
Depuis 2004, la fréquence des processeurs tend à stagner en raison de
difficultés de dissipation thermique, qui empêchent une montée en
fréquence en dépit de la taille plus faible des composants.
https://fr.wikipedia.org/wiki/Loi_de_Moore
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
On 15/01/17 11:40, pehache wrote:autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;
Quelle rupture ? Et avec quoi ? Windows s'installe nativement sur tous les
Mac x86, et un Mac est aujourd'hui un PC comme un autre.
J'ai dit, tu as coupé, ils ont dégagé le BIOS, pour un EFI;
et à
l'occasion, le CPU ne démarre plus en compatible x86 (386), mais dans un
mode beaucoup plus évolué. Ca change plein de choses concernant
l'initialisation de la machine, l'initialisation des périphériques ... et
la sécurité du CPU (voir pourquoi les teams BSD avait initialement refuser
de porter leurs OS sur IBM-PC; et de fait, les premières failles de sécu
trouvées dans les BSD étaient des failles spécifiques aux CPU x86).
Les Windows actuels s'installent peut être sur les MACs actuels; c'était
pas le cas en 2002.
On 15/01/17 11:40, pehache wrote:
autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;
Quelle rupture ? Et avec quoi ? Windows s'installe nativement sur tous les
Mac x86, et un Mac est aujourd'hui un PC comme un autre.
J'ai dit, tu as coupé, ils ont dégagé le BIOS, pour un EFI;
et à
l'occasion, le CPU ne démarre plus en compatible x86 (386), mais dans un
mode beaucoup plus évolué. Ca change plein de choses concernant
l'initialisation de la machine, l'initialisation des périphériques ... et
la sécurité du CPU (voir pourquoi les teams BSD avait initialement refuser
de porter leurs OS sur IBM-PC; et de fait, les premières failles de sécu
trouvées dans les BSD étaient des failles spécifiques aux CPU x86).
Les Windows actuels s'installent peut être sur les MACs actuels; c'était
pas le cas en 2002.
On 15/01/17 11:40, pehache wrote:autant je suis content de
voir qu'ils l'ont fait avec une assez bemme rupture de compatibilité;
Quelle rupture ? Et avec quoi ? Windows s'installe nativement sur tous les
Mac x86, et un Mac est aujourd'hui un PC comme un autre.
J'ai dit, tu as coupé, ils ont dégagé le BIOS, pour un EFI;
et à
l'occasion, le CPU ne démarre plus en compatible x86 (386), mais dans un
mode beaucoup plus évolué. Ca change plein de choses concernant
l'initialisation de la machine, l'initialisation des périphériques ... et
la sécurité du CPU (voir pourquoi les teams BSD avait initialement refuser
de porter leurs OS sur IBM-PC; et de fait, les premières failles de sécu
trouvées dans les BSD étaient des failles spécifiques aux CPU x86).
Les Windows actuels s'installent peut être sur les MACs actuels; c'était
pas le cas en 2002.
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors: depuis
2005-2010, on arrive plus à réduire.
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors: depuis
2005-2010, on arrive plus à réduire.
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors: depuis
2005-2010, on arrive plus à réduire.
On 14/01/17 19:21, FRITE wrote:+1 il faut évidement raisonné en %
Depuis 2004, la fréquence des processeurs tend à stagner en raison de
difficultés de dissipation thermique, qui empêchent une montée en
fréquence en dépit de la taille plus faible des composants.
https://fr.wikipedia.org/wiki/Loi_de_Moore
J'ai dit ça y a 2j, on m'a prouvé le contraire, et j'ai admis. Cherche le
poste ou en début de message il y a un paragraphe avec 6 lignes indiquant
les fréquences par année.
On 14/01/17 19:21, FRITE wrote:
+1 il faut évidement raisonné en %
Depuis 2004, la fréquence des processeurs tend à stagner en raison de
difficultés de dissipation thermique, qui empêchent une montée en
fréquence en dépit de la taille plus faible des composants.
https://fr.wikipedia.org/wiki/Loi_de_Moore
J'ai dit ça y a 2j, on m'a prouvé le contraire, et j'ai admis. Cherche le
poste ou en début de message il y a un paragraphe avec 6 lignes indiquant
les fréquences par année.
On 14/01/17 19:21, FRITE wrote:+1 il faut évidement raisonné en %
Depuis 2004, la fréquence des processeurs tend à stagner en raison de
difficultés de dissipation thermique, qui empêchent une montée en
fréquence en dépit de la taille plus faible des composants.
https://fr.wikipedia.org/wiki/Loi_de_Moore
J'ai dit ça y a 2j, on m'a prouvé le contraire, et j'ai admis. Cherche le
poste ou en début de message il y a un paragraphe avec 6 lignes indiquant
les fréquences par année.
Cékoidonc, tdp ?
Cékoidonc, tdp ?
Cékoidonc, tdp ?