Bonjour
Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent
Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".
Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.
D'ou la question: La loi de Moore est elle encore valide ?
Bonjour
Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent
Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".
Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.
D'ou la question: La loi de Moore est elle encore valide ?
Bonjour
Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent
Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".
Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.
D'ou la question: La loi de Moore est elle encore valide ?
Le 08/01/2017, ast a supposé :Bonjour
Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent
Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".
Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.
J'ai eu la même surprise.D'ou la question: La loi de Moore est elle encore valide ?
Elle est encore vérifiée.
Le problème, c'est qu'à gamme équivalente, les
commerçants fournissent aujourd'hui des PC moins bien équipés, l'euro
étant passé de près de 1,40$ en 2010 à presque 1$ aujourd'hui.
Le 08/01/2017, ast a supposé :
Bonjour
Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent
Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".
Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.
J'ai eu la même surprise.
D'ou la question: La loi de Moore est elle encore valide ?
Elle est encore vérifiée.
Le problème, c'est qu'à gamme équivalente, les
commerçants fournissent aujourd'hui des PC moins bien équipés, l'euro
étant passé de près de 1,40$ en 2010 à presque 1$ aujourd'hui.
Le 08/01/2017, ast a supposé :Bonjour
Mon premier PC avait 16 Mo de mémoire RAM
Mon deuxième PC avait 512 Mo de RAM, 32 fois plus que le précédent
Mon 3ème PC, l'actuel, a 4 Go de RAM, 8 fois plus que le précédent
Je garde mes PC 6 ou 7 ans, et ce sont au moment de l'achat des
PC "moyens".
Je commence à étudier l'achat d'un nouveau PC et je constate que la
mémoire des PC actuels "moyens" est de 8 Go
ça n'a que très peu évolué ces 6 ou 7 dernières années.
J'ai eu la même surprise.D'ou la question: La loi de Moore est elle encore valide ?
Elle est encore vérifiée.
Le problème, c'est qu'à gamme équivalente, les
commerçants fournissent aujourd'hui des PC moins bien équipés, l'euro
étant passé de près de 1,40$ en 2010 à presque 1$ aujourd'hui.
Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des transistors a
bien diminué : c'est un fait établi, pas une propective.
Les compétences existent et existaient, c'est juste une question de prix
à y mettre pour embaucher les bons développeurs. Le problème du dev sur
PS3 était tout simplement économique : hors exclusivités, un éditeur
essaie de rentabiliser ses jeux sur plusieurs consoles et sur PC, donc
d'avoir une base de code générique en limitant autant que possible les
morceaux de code spécifiques à une console particulière. Or avec son
architecture très spécifique, la PS3 mettait à mal ce modèle.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des transistors a
bien diminué : c'est un fait établi, pas une propective.
Les compétences existent et existaient, c'est juste une question de prix
à y mettre pour embaucher les bons développeurs. Le problème du dev sur
PS3 était tout simplement économique : hors exclusivités, un éditeur
essaie de rentabiliser ses jeux sur plusieurs consoles et sur PC, donc
d'avoir une base de code générique en limitant autant que possible les
morceaux de code spécifiques à une console particulière. Or avec son
architecture très spécifique, la PS3 mettait à mal ce modèle.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des transistors a
bien diminué : c'est un fait établi, pas une propective.
Les compétences existent et existaient, c'est juste une question de prix
à y mettre pour embaucher les bons développeurs. Le problème du dev sur
PS3 était tout simplement économique : hors exclusivités, un éditeur
essaie de rentabiliser ses jeux sur plusieurs consoles et sur PC, donc
d'avoir une base de code générique en limitant autant que possible les
morceaux de code spécifiques à une console particulière. Or avec son
architecture très spécifique, la PS3 mettait à mal ce modèle.
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :
La question de départ porte sur les barrettes de RAM mais votre remarque
sur les processeurs m'interroge.
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...
Pour un CPU oui mais pour les RAM????
la mémoire vive dynamique doit être réactualisée périodiquement pour
éviter la perte d'information;
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés. Donc encore heureux que les prix ne montent pas; ce serait
dommage que tu paye plus chère, pour augmenter la quantité de transistors
que tu n'utilise pas :D
Pour des raison thermique sommes nous capables de faire fonctionner ses
processeurs en utilisant tous les transistors en même temps?
Les RAM n'ont elle pas la même consommation indépendamment de leur
utilisation car elles sont rafraichies en permanences?
Pour les RAM (mémoire vive dynamique) les problèmes thermiques sont ils
une limitation pour l'augmentation leurs capacités ?
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :
La question de départ porte sur les barrettes de RAM mais votre remarque
sur les processeurs m'interroge.
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...
Pour un CPU oui mais pour les RAM????
la mémoire vive dynamique doit être réactualisée périodiquement pour
éviter la perte d'information;
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés. Donc encore heureux que les prix ne montent pas; ce serait
dommage que tu paye plus chère, pour augmenter la quantité de transistors
que tu n'utilise pas :D
Pour des raison thermique sommes nous capables de faire fonctionner ses
processeurs en utilisant tous les transistors en même temps?
Les RAM n'ont elle pas la même consommation indépendamment de leur
utilisation car elles sont rafraichies en permanences?
Pour les RAM (mémoire vive dynamique) les problèmes thermiques sont ils
une limitation pour l'augmentation leurs capacités ?
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
Le 09/01/2017 à 18:48, Benoit-Pierre DEMAINE a écrit :
La question de départ porte sur les barrettes de RAM mais votre remarque
sur les processeurs m'interroge.
De plus, les processeurs ont de plus en plus de circuits spécialisés; on
ajoute des transistors, pour leur faire faire des taches spécifiques; donc
le pourcentage de transistors utilisés par un CPU à un moment donné ...
Pour un CPU oui mais pour les RAM????
la mémoire vive dynamique doit être réactualisée périodiquement pour
éviter la perte d'information;
diminue année par année. Avec les années, ton ordinateur coute moins
chère, contient plus de transistors, mais le nombre de transistors
utilisés est stable; ce qui augmente, c'est le nombre de transistors
inutilisés. Donc encore heureux que les prix ne montent pas; ce serait
dommage que tu paye plus chère, pour augmenter la quantité de transistors
que tu n'utilise pas :D
Pour des raison thermique sommes nous capables de faire fonctionner ses
processeurs en utilisant tous les transistors en même temps?
Les RAM n'ont elle pas la même consommation indépendamment de leur
utilisation car elles sont rafraichies en permanences?
Pour les RAM (mémoire vive dynamique) les problèmes thermiques sont ils
une limitation pour l'augmentation leurs capacités ?
o_/ DEMAINE Benoît-Pierre (aka DoubleHP) http://benoit.demaine.info/
On 11/01/17 18:27, pehache wrote:Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des transistors a
bien diminué : c'est un fait établi, pas une propective.
Quand Intel a révolutionné le chipset pour lancer le P4, ils ont fait des
promesses: 10GHz dans 10 ans, sous entendu, par rédution de taille et
amélioration de la topologie interne du CPU. Ils ont promis que ce serait
le dernier grand changement de chipset, et l'avant dernier changement (ils
avaient annoncé que ce serait le dernier GRAND changement d'interface de
chipset, mais qu'il y en aurait un second plus petit pour pouvoir dépasser
les 10GHz).
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors: depuis
2005-2010, on arrive plus à réduire.
Certes, en fouinant, tu arrivera à trouver qu'un gratte quelques nm chaque
année; mais sur les 10 dernières années, on a beaucoup moins progressé sur
la taille des transistors, que sur les décénies précédentes: on bloque.
Le gain en performances se fait sur d'autres aspects.
Les compétences existent et existaient, c'est juste une question de prix
à y mettre pour embaucher les bons développeurs. Le problème du dev sur
PS3 était tout simplement économique : hors exclusivités, un éditeur
essaie de rentabiliser ses jeux sur plusieurs consoles et sur PC, donc
d'avoir une base de code générique en limitant autant que possible les
morceaux de code spécifiques à une console particulière. Or avec son
architecture très spécifique, la PS3 mettait à mal ce modèle.
Tu viens de dire que le marché du jeu dépend du fait que toutes les
consoles soient identiques ?
Et que ce sont les éditeurs qui incitent les
constructeurs à tout fabriquer la même chose ? et que tout constructeur
qui va tenter un peu d'innovation, et de divergence d'archi se verra boudé
par les éditeurs de jeux ?
Ca expliquerait la disparition de toutes les "architectures alternatives",
et pas que dans le monde du jeu (consoles portables, serveurs).
Le seul contre exemple, c'est ARM en mobilité; parce qu'ils ont créé leur
propre segment de marché; dans un secteur vierge de toute concurrence.
D'ailleurs c'est rigolo de voir les logiciels du monde mobile
progressivement portés vers les stations stations.
On 11/01/17 18:27, pehache wrote:
Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des transistors a
bien diminué : c'est un fait établi, pas une propective.
Quand Intel a révolutionné le chipset pour lancer le P4, ils ont fait des
promesses: 10GHz dans 10 ans, sous entendu, par rédution de taille et
amélioration de la topologie interne du CPU. Ils ont promis que ce serait
le dernier grand changement de chipset, et l'avant dernier changement (ils
avaient annoncé que ce serait le dernier GRAND changement d'interface de
chipset, mais qu'il y en aurait un second plus petit pour pouvoir dépasser
les 10GHz).
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors: depuis
2005-2010, on arrive plus à réduire.
Certes, en fouinant, tu arrivera à trouver qu'un gratte quelques nm chaque
année; mais sur les 10 dernières années, on a beaucoup moins progressé sur
la taille des transistors, que sur les décénies précédentes: on bloque.
Le gain en performances se fait sur d'autres aspects.
Les compétences existent et existaient, c'est juste une question de prix
à y mettre pour embaucher les bons développeurs. Le problème du dev sur
PS3 était tout simplement économique : hors exclusivités, un éditeur
essaie de rentabiliser ses jeux sur plusieurs consoles et sur PC, donc
d'avoir une base de code générique en limitant autant que possible les
morceaux de code spécifiques à une console particulière. Or avec son
architecture très spécifique, la PS3 mettait à mal ce modèle.
Tu viens de dire que le marché du jeu dépend du fait que toutes les
consoles soient identiques ?
Et que ce sont les éditeurs qui incitent les
constructeurs à tout fabriquer la même chose ? et que tout constructeur
qui va tenter un peu d'innovation, et de divergence d'archi se verra boudé
par les éditeurs de jeux ?
Ca expliquerait la disparition de toutes les "architectures alternatives",
et pas que dans le monde du jeu (consoles portables, serveurs).
Le seul contre exemple, c'est ARM en mobilité; parce qu'ils ont créé leur
propre segment de marché; dans un secteur vierge de toute concurrence.
D'ailleurs c'est rigolo de voir les logiciels du monde mobile
progressivement portés vers les stations stations.
On 11/01/17 18:27, pehache wrote:Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des transistors a
bien diminué : c'est un fait établi, pas une propective.
Quand Intel a révolutionné le chipset pour lancer le P4, ils ont fait des
promesses: 10GHz dans 10 ans, sous entendu, par rédution de taille et
amélioration de la topologie interne du CPU. Ils ont promis que ce serait
le dernier grand changement de chipset, et l'avant dernier changement (ils
avaient annoncé que ce serait le dernier GRAND changement d'interface de
chipset, mais qu'il y en aurait un second plus petit pour pouvoir dépasser
les 10GHz).
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors: depuis
2005-2010, on arrive plus à réduire.
Certes, en fouinant, tu arrivera à trouver qu'un gratte quelques nm chaque
année; mais sur les 10 dernières années, on a beaucoup moins progressé sur
la taille des transistors, que sur les décénies précédentes: on bloque.
Le gain en performances se fait sur d'autres aspects.
Les compétences existent et existaient, c'est juste une question de prix
à y mettre pour embaucher les bons développeurs. Le problème du dev sur
PS3 était tout simplement économique : hors exclusivités, un éditeur
essaie de rentabiliser ses jeux sur plusieurs consoles et sur PC, donc
d'avoir une base de code générique en limitant autant que possible les
morceaux de code spécifiques à une console particulière. Or avec son
architecture très spécifique, la PS3 mettait à mal ce modèle.
Tu viens de dire que le marché du jeu dépend du fait que toutes les
consoles soient identiques ?
Et que ce sont les éditeurs qui incitent les
constructeurs à tout fabriquer la même chose ? et que tout constructeur
qui va tenter un peu d'innovation, et de divergence d'archi se verra boudé
par les éditeurs de jeux ?
Ca expliquerait la disparition de toutes les "architectures alternatives",
et pas que dans le monde du jeu (consoles portables, serveurs).
Le seul contre exemple, c'est ARM en mobilité; parce qu'ils ont créé leur
propre segment de marché; dans un secteur vierge de toute concurrence.
D'ailleurs c'est rigolo de voir les logiciels du monde mobile
progressivement portés vers les stations stations.
C'est là que je vais dévier sur un nouvel usage intensif des transistors.
Car, il y a une technologie très récente, qui n'existait pas à l'époque de
Moore, qui a BEAUCOUP évoluée depuis 20 ans, et dont l'évolution a façonné
notre monde récent: la FLASH. La flash se situe pas vraiment entre la RAM
et le CPU; mais un peu en marge des deux.
En x86, un core fait une seule opération à la fois; pour
simplifier, tu va soit faire une multiplication, soit une soustraction
(pour citer des sous circuits réellement concurrents: la division utilise
le module de multiplication; et le module multiplication utilise
l'addition).
Une barrette de RAM coute presque aussi chère qu'un CPU.
C'est là que je vais dévier sur un nouvel usage intensif des transistors.
Car, il y a une technologie très récente, qui n'existait pas à l'époque de
Moore, qui a BEAUCOUP évoluée depuis 20 ans, et dont l'évolution a façonné
notre monde récent: la FLASH. La flash se situe pas vraiment entre la RAM
et le CPU; mais un peu en marge des deux.
En x86, un core fait une seule opération à la fois; pour
simplifier, tu va soit faire une multiplication, soit une soustraction
(pour citer des sous circuits réellement concurrents: la division utilise
le module de multiplication; et le module multiplication utilise
l'addition).
Une barrette de RAM coute presque aussi chère qu'un CPU.
C'est là que je vais dévier sur un nouvel usage intensif des transistors.
Car, il y a une technologie très récente, qui n'existait pas à l'époque de
Moore, qui a BEAUCOUP évoluée depuis 20 ans, et dont l'évolution a façonné
notre monde récent: la FLASH. La flash se situe pas vraiment entre la RAM
et le CPU; mais un peu en marge des deux.
En x86, un core fait une seule opération à la fois; pour
simplifier, tu va soit faire une multiplication, soit une soustraction
(pour citer des sous circuits réellement concurrents: la division utilise
le module de multiplication; et le module multiplication utilise
l'addition).
Une barrette de RAM coute presque aussi chère qu'un CPU.
Ca a toujours été le cas, la RAM disponible à un instant satisfaisait
toujours 95% des utilisateurs, seuls 5% de geeks en voulaient plus.
Ca a toujours été le cas, la RAM disponible à un instant satisfaisait
toujours 95% des utilisateurs, seuls 5% de geeks en voulaient plus.
Ca a toujours été le cas, la RAM disponible à un instant satisfaisait
toujours 95% des utilisateurs, seuls 5% de geeks en voulaient plus.
Le 14/01/2017 à 00:37, Benoit-Pierre DEMAINE a écrit :On 11/01/17 18:27, pehache wrote:Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des
transistors a
bien diminué : c'est un fait établi, pas une propective.
Quand Intel a révolutionné le chipset pour lancer le P4, ils ont fait des
promesses: 10GHz dans 10 ans, sous entendu, par rédution de taille et
amélioration de la topologie interne du CPU. Ils ont promis que ce serait
le dernier grand changement de chipset, et l'avant dernier changement
(ils
avaient annoncé que ce serait le dernier GRAND changement d'interface de
chipset, mais qu'il y en aurait un second plus petit pour pouvoir
dépasser
les 10GHz).
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors:
depuis
2005-2010, on arrive plus à réduire.
Certes, en fouinant, tu arrivera à trouver qu'un gratte quelques nm
chaque
année; mais sur les 10 dernières années, on a beaucoup moins progressé
sur
la taille des transistors, que sur les décénies précédentes: on bloque.
Le gain en performances se fait sur d'autres aspects.
Franchement, que de blabla pour ne pas reconnaître que tu as écrit un
truc faux. Tu as bien écrit initialement que depuis 10 ans on ne pouvait
plus réduire la taille, pas qu'on avait beaucoup moins progressé.
Toi : "Depuis 10 ans, ayant atteint l'échelle atomique, on ne peut plus
réduire la dimension d'un transistor"
Ast :
10 µm (1971) · 3 µm (1975) · 1,5 µm (1982) · 1 µm (1985) ·
800 nm (1989) · 600 nm (1994) · 350 nm (1995) · 250 nm (1997) ·
180 nm (1999) ·130 nm (2002) · 90 nm (2004) · 65 nm (2006) ·
45 nm (2008) · 32 nm (2010) · 22 nm (2012) · 14 nm (2014) ·
10 nm (2016-2017)
Le 14/01/2017 à 00:37, Benoit-Pierre DEMAINE a écrit :
On 11/01/17 18:27, pehache wrote:
Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des
transistors a
bien diminué : c'est un fait établi, pas une propective.
Quand Intel a révolutionné le chipset pour lancer le P4, ils ont fait des
promesses: 10GHz dans 10 ans, sous entendu, par rédution de taille et
amélioration de la topologie interne du CPU. Ils ont promis que ce serait
le dernier grand changement de chipset, et l'avant dernier changement
(ils
avaient annoncé que ce serait le dernier GRAND changement d'interface de
chipset, mais qu'il y en aurait un second plus petit pour pouvoir
dépasser
les 10GHz).
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors:
depuis
2005-2010, on arrive plus à réduire.
Certes, en fouinant, tu arrivera à trouver qu'un gratte quelques nm
chaque
année; mais sur les 10 dernières années, on a beaucoup moins progressé
sur
la taille des transistors, que sur les décénies précédentes: on bloque.
Le gain en performances se fait sur d'autres aspects.
Franchement, que de blabla pour ne pas reconnaître que tu as écrit un
truc faux. Tu as bien écrit initialement que depuis 10 ans on ne pouvait
plus réduire la taille, pas qu'on avait beaucoup moins progressé.
Toi : "Depuis 10 ans, ayant atteint l'échelle atomique, on ne peut plus
réduire la dimension d'un transistor"
Ast :
10 µm (1971) · 3 µm (1975) · 1,5 µm (1982) · 1 µm (1985) ·
800 nm (1989) · 600 nm (1994) · 350 nm (1995) · 250 nm (1997) ·
180 nm (1999) ·130 nm (2002) · 90 nm (2004) · 65 nm (2006) ·
45 nm (2008) · 32 nm (2010) · 22 nm (2012) · 14 nm (2014) ·
10 nm (2016-2017)
Le 14/01/2017 à 00:37, Benoit-Pierre DEMAINE a écrit :On 11/01/17 18:27, pehache wrote:Tu écrivais "depuis 10 ans". Or depuis 10 ans la taille des
transistors a
bien diminué : c'est un fait établi, pas une propective.
Quand Intel a révolutionné le chipset pour lancer le P4, ils ont fait des
promesses: 10GHz dans 10 ans, sous entendu, par rédution de taille et
amélioration de la topologie interne du CPU. Ils ont promis que ce serait
le dernier grand changement de chipset, et l'avant dernier changement
(ils
avaient annoncé que ce serait le dernier GRAND changement d'interface de
chipset, mais qu'il y en aurait un second plus petit pour pouvoir
dépasser
les 10GHz).
Les 10 ans sont passés, et ils n'ont même pas atteint 5GHz. Donc, un bute
très sévèrement. Et le grand frein à l'amélioration des cadences, c'est
qu'on a de plus en plus de mal à réduire la taille des transistors:
depuis
2005-2010, on arrive plus à réduire.
Certes, en fouinant, tu arrivera à trouver qu'un gratte quelques nm
chaque
année; mais sur les 10 dernières années, on a beaucoup moins progressé
sur
la taille des transistors, que sur les décénies précédentes: on bloque.
Le gain en performances se fait sur d'autres aspects.
Franchement, que de blabla pour ne pas reconnaître que tu as écrit un
truc faux. Tu as bien écrit initialement que depuis 10 ans on ne pouvait
plus réduire la taille, pas qu'on avait beaucoup moins progressé.
Toi : "Depuis 10 ans, ayant atteint l'échelle atomique, on ne peut plus
réduire la dimension d'un transistor"
Ast :
10 µm (1971) · 3 µm (1975) · 1,5 µm (1982) · 1 µm (1985) ·
800 nm (1989) · 600 nm (1994) · 350 nm (1995) · 250 nm (1997) ·
180 nm (1999) ·130 nm (2002) · 90 nm (2004) · 65 nm (2006) ·
45 nm (2008) · 32 nm (2010) · 22 nm (2012) · 14 nm (2014) ·
10 nm (2016-2017)
Hors,
Hors,
Hors,
En, c'est mieux tdp,
c'est or (et sans virgule sjnma).
En, c'est mieux tdp,
c'est or (et sans virgule sjnma).
En, c'est mieux tdp,
c'est or (et sans virgule sjnma).