" ...Cette réaction était la réponse du développeur à un ingénieur de
Novell citant une étude interne d'Intel selon laquelle la performance
de Linux reculait de 2% à chaque nouvelle version, portant ainsi à 12%
la baisse de performance globale depuis 10 ans.
-12% de performance en 10 ans..."
Je croyais que le système s'améliorait jour après jour, et bien en fait
il diminue
Dans une centaine d'année environ, il aura atteint une performance
générale de 0%, ce qui en fera le système le plus inutile du monde
Quand je pense que certains riaient, lorsque je disais que Linux allait
s'effondrer sur lui-même, tel un trou noir ;>))
Aujourd'hui, on ne cherche plus à faire le "processeur le plus puissant du monde"
On fait des clusters, et la plupart ont des x86 Intel ou AMD ;>)
Ah oui. à 99.9% sous linux, le 0.1 restant constituant une version expérimentrale de windows, destinées aux chercheurs (qui préfèrent à 99.9% confier leur calculs à une grille sous linux.)
Aujourd'hui, on ne cherche plus à faire le "processeur le plus puissant
du monde"
On fait des clusters, et la plupart ont des x86 Intel ou AMD ;>)
Ah oui. à 99.9% sous linux, le 0.1 restant constituant une version
expérimentrale de windows, destinées aux chercheurs (qui préfèrent à 99.9%
confier leur calculs à une grille sous linux.)
Aujourd'hui, on ne cherche plus à faire le "processeur le plus puissant du monde"
On fait des clusters, et la plupart ont des x86 Intel ou AMD ;>)
Ah oui. à 99.9% sous linux, le 0.1 restant constituant une version expérimentrale de windows, destinées aux chercheurs (qui préfèrent à 99.9% confier leur calculs à une grille sous linux.)
Le cluster n'est pas la solution universelle, la preuve : le truc 'hype' du moment, c'est la virtualisation, qui est l'inverse/opposé du cluster.
Une machine virtuelle peux très bien occuper physiquement une grappe dans une grille voire une grille complète ou bien loger dans une seule machine-hôtesse. Virtualisation et grid ne sont pas opposés mais complémentaires.
Comme d'habitude, campé sur tes certitudes, tu racontes n'importe quoi.
Disons qu'on ne se trimballe rarement une grille de calcul dans sa cuisine, ça cuit médiocrement la soupe et ça consomme plus qu'une bouilloire électrique, alors que les processeurs surpuissant qu'on trouve sur le marché peuvent héberger confortablement plusieurs services qui ne perdent rien en fiabilité en étant sur des machines virtuelles.
Le cluster n'est pas la solution universelle, la preuve : le truc 'hype'
du moment, c'est la virtualisation, qui est l'inverse/opposé du cluster.
Une machine virtuelle peux très bien occuper physiquement une grappe dans
une grille voire une grille complète ou bien loger dans une seule
machine-hôtesse. Virtualisation et grid ne sont pas opposés mais
complémentaires.
Comme d'habitude, campé sur tes certitudes, tu racontes n'importe quoi.
Disons qu'on ne se trimballe rarement une grille de calcul dans sa cuisine,
ça cuit médiocrement la soupe et ça consomme plus qu'une bouilloire
électrique, alors que les processeurs surpuissant qu'on trouve sur le marché
peuvent héberger confortablement plusieurs services qui ne perdent rien en
fiabilité en étant sur des machines virtuelles.
Le cluster n'est pas la solution universelle, la preuve : le truc 'hype' du moment, c'est la virtualisation, qui est l'inverse/opposé du cluster.
Une machine virtuelle peux très bien occuper physiquement une grappe dans une grille voire une grille complète ou bien loger dans une seule machine-hôtesse. Virtualisation et grid ne sont pas opposés mais complémentaires.
Comme d'habitude, campé sur tes certitudes, tu racontes n'importe quoi.
Disons qu'on ne se trimballe rarement une grille de calcul dans sa cuisine, ça cuit médiocrement la soupe et ça consomme plus qu'une bouilloire électrique, alors que les processeurs surpuissant qu'on trouve sur le marché peuvent héberger confortablement plusieurs services qui ne perdent rien en fiabilité en étant sur des machines virtuelles.
trouve sur le marché peuvent héberger confortablement plusieurs services qui ne perdent rien en fiabilité en étant sur des machines virtuelles.
Et en prime, ils maintiennent le café chaud! :-D
A+ JF
Patrice Karatchentzeff
Yves Lambert a écrit :
Disons qu'on ne se trimballe rarement une grille de calcul dans sa cuisine, ça cuit médiocrement la soupe et ça consomme plus qu'une bouilloire électrique, alors que les processeurs surpuissant qu'on trouve sur le marché peuvent héberger confortablement plusieurs services qui ne perdent rien en fiabilité en étant sur des machines virtuelles.
Heu... sauf à être un maniaque de la séparation, si tout fonctionne parfaitement sur une seule machine, cela veut dire qu'on peut intégrer tous ces services sur la machine hôte sans rien virtualiser...
Disons qu'on ne se trimballe rarement une grille de calcul dans sa
cuisine, ça cuit médiocrement la soupe et ça consomme plus qu'une
bouilloire électrique, alors que les processeurs surpuissant qu'on
trouve sur le marché peuvent héberger confortablement plusieurs
services qui ne perdent rien en fiabilité en étant sur des machines
virtuelles.
Heu... sauf à être un maniaque de la séparation, si tout fonctionne
parfaitement sur une seule machine, cela veut dire qu'on peut intégrer
tous ces services sur la machine hôte sans rien virtualiser...
Disons qu'on ne se trimballe rarement une grille de calcul dans sa cuisine, ça cuit médiocrement la soupe et ça consomme plus qu'une bouilloire électrique, alors que les processeurs surpuissant qu'on trouve sur le marché peuvent héberger confortablement plusieurs services qui ne perdent rien en fiabilité en étant sur des machines virtuelles.
Heu... sauf à être un maniaque de la séparation, si tout fonctionne parfaitement sur une seule machine, cela veut dire qu'on peut intégrer tous ces services sur la machine hôte sans rien virtualiser...
Le 25/09/2009 21:32, Patrice Karatchentzeff a écrit :
Heu... sauf à être un maniaque de la séparation, si tout fonctionne parfaitement sur une seule machine, cela veut dire qu'on peut intégrer tous ces services sur la machine hôte sans rien virtualiser...
Il n'y a pas que cela avec la virtualisation ...
Après souplesse, toussa...
Entre autres ...
-- Stéphan Peccini Les photos : <URL:http://photonature.fr> Les Pyrénées : <URL:http://photonature.fr/pyrenees> Le blog : <URL:http://pyrenees.peccini.fr>
Le 25/09/2009 21:32, Patrice Karatchentzeff a écrit :
Heu... sauf à être un maniaque de la séparation, si tout fonctionne
parfaitement sur une seule machine, cela veut dire qu'on peut intégrer
tous ces services sur la machine hôte sans rien virtualiser...
Il n'y a pas que cela avec la virtualisation ...
Après souplesse, toussa...
Entre autres ...
--
Stéphan Peccini
Les photos : <URL:http://photonature.fr>
Les Pyrénées : <URL:http://photonature.fr/pyrenees>
Le blog : <URL:http://pyrenees.peccini.fr>
Le 25/09/2009 21:32, Patrice Karatchentzeff a écrit :
Heu... sauf à être un maniaque de la séparation, si tout fonctionne parfaitement sur une seule machine, cela veut dire qu'on peut intégrer tous ces services sur la machine hôte sans rien virtualiser...
Il n'y a pas que cela avec la virtualisation ...
Après souplesse, toussa...
Entre autres ...
-- Stéphan Peccini Les photos : <URL:http://photonature.fr> Les Pyrénées : <URL:http://photonature.fr/pyrenees> Le blog : <URL:http://pyrenees.peccini.fr>
JKB
Le 25-09-2009, ? propos de Re: Linux perd 2 % de performance par année, Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
JKB a écrit :
Le 25-09-2009, ? propos de Re: Linux perd 2 % de performance par année, Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
[...]
Si tu regardes les specs de l'Atom, la faible consommation est obtenu par des artifices (en gros on éteint certains morceaux de la puce) plutôt que par une optimisation directe de la consommation à tous les niveaux. L'approche est totalement différente.
Heu... tu coupes les cheveux en quatre là. Si et les perf et la conso sont là *alors* la méthode est bonne.
Non. Parce que avec un T2, je consomme peu en ayant _toutes_ les possibilités du chip en fonction. Sur l'atom, je consomme peu en ayant très peu de fonctionnalités actives, c'est très différent. Dit autrement, lorsque je lance un calcul bourrin sur un T2, il consommera toujours peu alors qu'un atom se mettra à chauffer, mais à chauffer...
Je ne parlais pas stricto sensu de l'atome. Activer des sous-ensembles - ou plutôt les désactiver - dans un gros circuit est une pratique courante et plutôt une bonne pratique.
Je ne dis pas que ce n'est pas intéressant. Je dis simplement que cela cache la réelle consommation de la bête. Si Sun faisait pareil avec ses T2, la consommation d'un tel processeur serait des pouillèmes de watt. Éteindre des circuits revient simplement à masquer la conséquence d'un mauvais design plutôt que s'attaquer à la cause de la consommation. Cela a aussi des conséquences sur la durée de vie d'une puce.
Après, rien ne vaudra un bon design aux petits oignons... ce qui revient à dire que si l'on câblait proprement (et en analogique) le super calcul que tu veux faire avec ton T2, il se ferait enfoncer totalement côté perf et conso...
On est parfaitement d'accord.
JKB
-- Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre masse corporelle, mais disperse à lui seul 25% de l'énergie que nous consommons tous les jours.
Le 25-09-2009, ? propos de
Re: Linux perd 2 % de performance par année,
Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
JKB <knatschke@koenigsberg.fr> a écrit :
Le 25-09-2009, ? propos de Re: Linux perd 2 % de performance par
année,
Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
[...]
Si tu regardes les specs de l'Atom, la faible consommation est
obtenu par des artifices (en gros on éteint certains morceaux
de la puce) plutôt que par une optimisation directe de la
consommation à tous les niveaux. L'approche est totalement
différente.
Heu... tu coupes les cheveux en quatre là. Si et les perf et la
conso sont là *alors* la méthode est bonne.
Non. Parce que avec un T2, je consomme peu en ayant _toutes_
les possibilités du chip en fonction. Sur l'atom, je consomme
peu en ayant très peu de fonctionnalités actives, c'est très
différent. Dit autrement, lorsque je lance un calcul bourrin
sur un T2, il consommera toujours peu alors qu'un atom se
mettra à chauffer, mais à chauffer...
Je ne parlais pas stricto sensu de l'atome. Activer des sous-ensembles
- ou plutôt les désactiver - dans un gros circuit est une pratique
courante et plutôt une bonne pratique.
Je ne dis pas que ce n'est pas intéressant. Je dis simplement que
cela cache la réelle consommation de la bête. Si Sun faisait pareil
avec ses T2, la consommation d'un tel processeur serait des
pouillèmes de watt. Éteindre des circuits revient simplement à
masquer la conséquence d'un mauvais design plutôt que s'attaquer à
la cause de la consommation. Cela a aussi des conséquences sur la
durée de vie d'une puce.
Après, rien ne vaudra un bon design aux petits oignons... ce qui
revient à dire que si l'on câblait proprement (et en analogique) le
super calcul que tu veux faire avec ton T2, il se ferait enfoncer
totalement côté perf et conso...
On est parfaitement d'accord.
JKB
--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.
Le 25-09-2009, ? propos de Re: Linux perd 2 % de performance par année, Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
JKB a écrit :
Le 25-09-2009, ? propos de Re: Linux perd 2 % de performance par année, Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
[...]
Si tu regardes les specs de l'Atom, la faible consommation est obtenu par des artifices (en gros on éteint certains morceaux de la puce) plutôt que par une optimisation directe de la consommation à tous les niveaux. L'approche est totalement différente.
Heu... tu coupes les cheveux en quatre là. Si et les perf et la conso sont là *alors* la méthode est bonne.
Non. Parce que avec un T2, je consomme peu en ayant _toutes_ les possibilités du chip en fonction. Sur l'atom, je consomme peu en ayant très peu de fonctionnalités actives, c'est très différent. Dit autrement, lorsque je lance un calcul bourrin sur un T2, il consommera toujours peu alors qu'un atom se mettra à chauffer, mais à chauffer...
Je ne parlais pas stricto sensu de l'atome. Activer des sous-ensembles - ou plutôt les désactiver - dans un gros circuit est une pratique courante et plutôt une bonne pratique.
Je ne dis pas que ce n'est pas intéressant. Je dis simplement que cela cache la réelle consommation de la bête. Si Sun faisait pareil avec ses T2, la consommation d'un tel processeur serait des pouillèmes de watt. Éteindre des circuits revient simplement à masquer la conséquence d'un mauvais design plutôt que s'attaquer à la cause de la consommation. Cela a aussi des conséquences sur la durée de vie d'une puce.
Après, rien ne vaudra un bon design aux petits oignons... ce qui revient à dire que si l'on câblait proprement (et en analogique) le super calcul que tu veux faire avec ton T2, il se ferait enfoncer totalement côté perf et conso...
On est parfaitement d'accord.
JKB
-- Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre masse corporelle, mais disperse à lui seul 25% de l'énergie que nous consommons tous les jours.
Jo Kerr
Laurent P. vient de nous annoncer :
Tu as cherché la petite bébête sur ce coup-là.
Il cherche souvent (toujours?) la petite bébête... ;-)
-- In gold we trust (c)
Laurent P. vient de nous annoncer :
Tu as cherché la petite bébête sur ce coup-là.
Il cherche souvent (toujours?) la petite bébête...
;-)
Il cherche souvent (toujours?) la petite bébête... ;-)
-- In gold we trust (c)
Patrice Karatchentzeff
JKB a écrit :
Le 25-09-2009, ? propos de Re: Linux perd 2 % de performance par année, Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
[...]
Je ne parlais pas stricto sensu de l'atome. Activer des sous-ensembles - ou plutôt les désactiver - dans un gros circuit est une pratique courante et plutôt une bonne pratique.
Je ne dis pas que ce n'est pas intéressant. Je dis simplement que cela cache la réelle consommation de la bête. Si Sun faisait pareil avec ses T2, la consommation d'un tel processeur serait des pouillèmes de watt.
Non parce que le design du T2 ne l'autorise sûrement pas : s'il a été dessiné pour fonctionner de façon optimale sans consommer, il est peu probable que l'on puisse « éteindre » des sous-ensembles...
Ou alors, c'est que le design est pourri :-)
Éteindre des circuits revient simplement à masquer la conséquence d'un mauvais design plutôt que s'attaquer à la cause de la consommation. Cela a aussi des conséquences sur la durée de vie d'une puce.
Non, pas forcément : il existe de plus en plus de SOC (qui sont des systèmes tout intégrés) qui ont une vraie valeur ajoutée. Par contre, tout ne sert pas tout le temps en même temps et il est donc judicieux de les couper (pour de simples problèmes de conso statique).
Par contre, pour la durée de vie, là, je ne vois pas. Le fait de ne pas alimenter des transistors CMOS aurait plutôt l'effet inverse !
Le 25-09-2009, ? propos de Re: Linux perd 2 % de performance par
année,
Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
[...]
Je ne parlais pas stricto sensu de l'atome. Activer des
sous-ensembles - ou plutôt les désactiver - dans un gros circuit
est une pratique courante et plutôt une bonne pratique.
Je ne dis pas que ce n'est pas intéressant. Je dis simplement que
cela cache la réelle consommation de la bête. Si Sun faisait pareil
avec ses T2, la consommation d'un tel processeur serait des
pouillèmes de watt.
Non parce que le design du T2 ne l'autorise sûrement pas : s'il a été
dessiné pour fonctionner de façon optimale sans consommer, il est peu
probable que l'on puisse « éteindre » des sous-ensembles...
Ou alors, c'est que le design est pourri :-)
Éteindre des circuits revient simplement à masquer la conséquence
d'un mauvais design plutôt que s'attaquer à la cause de la
consommation. Cela a aussi des conséquences sur la durée de vie
d'une puce.
Non, pas forcément : il existe de plus en plus de SOC (qui sont des
systèmes tout intégrés) qui ont une vraie valeur ajoutée. Par contre,
tout ne sert pas tout le temps en même temps et il est donc judicieux
de les couper (pour de simples problèmes de conso statique).
Par contre, pour la durée de vie, là, je ne vois pas. Le fait de ne
pas alimenter des transistors CMOS aurait plutôt l'effet inverse !
Le 25-09-2009, ? propos de Re: Linux perd 2 % de performance par année, Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
[...]
Je ne parlais pas stricto sensu de l'atome. Activer des sous-ensembles - ou plutôt les désactiver - dans un gros circuit est une pratique courante et plutôt une bonne pratique.
Je ne dis pas que ce n'est pas intéressant. Je dis simplement que cela cache la réelle consommation de la bête. Si Sun faisait pareil avec ses T2, la consommation d'un tel processeur serait des pouillèmes de watt.
Non parce que le design du T2 ne l'autorise sûrement pas : s'il a été dessiné pour fonctionner de façon optimale sans consommer, il est peu probable que l'on puisse « éteindre » des sous-ensembles...
Ou alors, c'est que le design est pourri :-)
Éteindre des circuits revient simplement à masquer la conséquence d'un mauvais design plutôt que s'attaquer à la cause de la consommation. Cela a aussi des conséquences sur la durée de vie d'une puce.
Non, pas forcément : il existe de plus en plus de SOC (qui sont des systèmes tout intégrés) qui ont une vraie valeur ajoutée. Par contre, tout ne sert pas tout le temps en même temps et il est donc judicieux de les couper (pour de simples problèmes de conso statique).
Par contre, pour la durée de vie, là, je ne vois pas. Le fait de ne pas alimenter des transistors CMOS aurait plutôt l'effet inverse !
Le 26-09-2009, ? propos de Re: Linux perd 2 % de performance par année, Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
JKB a écrit :
Le 25-09-2009, ? propos de Re: Linux perd 2 % de performance par année, Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
[...]
Je ne parlais pas stricto sensu de l'atome. Activer des sous-ensembles - ou plutôt les désactiver - dans un gros circuit est une pratique courante et plutôt une bonne pratique.
Je ne dis pas que ce n'est pas intéressant. Je dis simplement que cela cache la réelle consommation de la bête. Si Sun faisait pareil avec ses T2, la consommation d'un tel processeur serait des pouillèmes de watt.
Non parce que le design du T2 ne l'autorise sûrement pas : s'il a été dessiné pour fonctionner de façon optimale sans consommer, il est peu probable que l'on puisse « éteindre » des sous-ensembles...
Ou alors, c'est que le design est pourri :-)
Éteindre des circuits revient simplement à masquer la conséquence d'un mauvais design plutôt que s'attaquer à la cause de la consommation. Cela a aussi des conséquences sur la durée de vie d'une puce.
Non, pas forcément : il existe de plus en plus de SOC (qui sont des systèmes tout intégrés) qui ont une vraie valeur ajoutée. Par contre, tout ne sert pas tout le temps en même temps et il est donc judicieux de les couper (pour de simples problèmes de conso statique).
Ce n'est pas le problème. Si ton design est fait de telle sorte que ton composant consomme moins lorsqu'il est totalement alimenté, si tu en éteint des bouts, ça consommera encore moins. Si ton coeur de composant est moisi et induit une forte consommation, en éteignant des bouts, tu consommeras toujours plus qu'un coeur qui _à l'origine_ consommait moins. En ça, l'Atom, c'est mieux que le core2duo, mais c'est toujours moins bien que des trucs qui sont à l'origine des composants à bas consommation.
Par contre, pour la durée de vie, là, je ne vois pas. Le fait de ne pas alimenter des transistors CMOS aurait plutôt l'effet inverse !
Non. Plus ton coeur dissipe de puissance parce que son design est mauvais/mal fait, plus le fait d'allumer/éteindre des bouts induit des contraintes mécaniques (dilatation et transferts de charges) qui font vieillir prématurément les composants. En électronique, on aime bien les trucs qui restent à température constante parce qu'on peut en prédir le vieillissement. Maintenant, il reste à savoir si la réduction de la durée de vie donne un composant dont la durée de vie est trop faible vis à vis du reste du matériel.
JKB
-- Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre masse corporelle, mais disperse à lui seul 25% de l'énergie que nous consommons tous les jours.
Le 26-09-2009, ? propos de
Re: Linux perd 2 % de performance par année,
Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
JKB <knatschke@koenigsberg.fr> a écrit :
Le 25-09-2009, ? propos de Re: Linux perd 2 % de performance par
année,
Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
[...]
Je ne parlais pas stricto sensu de l'atome. Activer des
sous-ensembles - ou plutôt les désactiver - dans un gros circuit
est une pratique courante et plutôt une bonne pratique.
Je ne dis pas que ce n'est pas intéressant. Je dis simplement que
cela cache la réelle consommation de la bête. Si Sun faisait pareil
avec ses T2, la consommation d'un tel processeur serait des
pouillèmes de watt.
Non parce que le design du T2 ne l'autorise sûrement pas : s'il a été
dessiné pour fonctionner de façon optimale sans consommer, il est peu
probable que l'on puisse « éteindre » des sous-ensembles...
Ou alors, c'est que le design est pourri :-)
Éteindre des circuits revient simplement à masquer la conséquence
d'un mauvais design plutôt que s'attaquer à la cause de la
consommation. Cela a aussi des conséquences sur la durée de vie
d'une puce.
Non, pas forcément : il existe de plus en plus de SOC (qui sont des
systèmes tout intégrés) qui ont une vraie valeur ajoutée. Par contre,
tout ne sert pas tout le temps en même temps et il est donc judicieux
de les couper (pour de simples problèmes de conso statique).
Ce n'est pas le problème. Si ton design est fait de telle sorte que
ton composant consomme moins lorsqu'il est totalement alimenté, si tu
en éteint des bouts, ça consommera encore moins. Si ton coeur de
composant est moisi et induit une forte consommation, en éteignant
des bouts, tu consommeras toujours plus qu'un coeur qui _à l'origine_
consommait moins. En ça, l'Atom, c'est mieux que le core2duo, mais
c'est toujours moins bien que des trucs qui sont à l'origine des
composants à bas consommation.
Par contre, pour la durée de vie, là, je ne vois pas. Le fait de ne
pas alimenter des transistors CMOS aurait plutôt l'effet inverse !
Non. Plus ton coeur dissipe de puissance parce que son design est
mauvais/mal fait, plus le fait d'allumer/éteindre des bouts induit
des contraintes mécaniques (dilatation et transferts de charges) qui
font vieillir prématurément les composants. En électronique, on aime
bien les trucs qui restent à température constante parce qu'on peut
en prédir le vieillissement. Maintenant, il reste à savoir si la
réduction de la durée de vie donne un composant dont la durée de vie
est trop faible vis à vis du reste du matériel.
JKB
--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.
Le 26-09-2009, ? propos de Re: Linux perd 2 % de performance par année, Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
JKB a écrit :
Le 25-09-2009, ? propos de Re: Linux perd 2 % de performance par année, Patrice Karatchentzeff ?crivait dans fr.comp.os.linux.debats :
[...]
Je ne parlais pas stricto sensu de l'atome. Activer des sous-ensembles - ou plutôt les désactiver - dans un gros circuit est une pratique courante et plutôt une bonne pratique.
Je ne dis pas que ce n'est pas intéressant. Je dis simplement que cela cache la réelle consommation de la bête. Si Sun faisait pareil avec ses T2, la consommation d'un tel processeur serait des pouillèmes de watt.
Non parce que le design du T2 ne l'autorise sûrement pas : s'il a été dessiné pour fonctionner de façon optimale sans consommer, il est peu probable que l'on puisse « éteindre » des sous-ensembles...
Ou alors, c'est que le design est pourri :-)
Éteindre des circuits revient simplement à masquer la conséquence d'un mauvais design plutôt que s'attaquer à la cause de la consommation. Cela a aussi des conséquences sur la durée de vie d'une puce.
Non, pas forcément : il existe de plus en plus de SOC (qui sont des systèmes tout intégrés) qui ont une vraie valeur ajoutée. Par contre, tout ne sert pas tout le temps en même temps et il est donc judicieux de les couper (pour de simples problèmes de conso statique).
Ce n'est pas le problème. Si ton design est fait de telle sorte que ton composant consomme moins lorsqu'il est totalement alimenté, si tu en éteint des bouts, ça consommera encore moins. Si ton coeur de composant est moisi et induit une forte consommation, en éteignant des bouts, tu consommeras toujours plus qu'un coeur qui _à l'origine_ consommait moins. En ça, l'Atom, c'est mieux que le core2duo, mais c'est toujours moins bien que des trucs qui sont à l'origine des composants à bas consommation.
Par contre, pour la durée de vie, là, je ne vois pas. Le fait de ne pas alimenter des transistors CMOS aurait plutôt l'effet inverse !
Non. Plus ton coeur dissipe de puissance parce que son design est mauvais/mal fait, plus le fait d'allumer/éteindre des bouts induit des contraintes mécaniques (dilatation et transferts de charges) qui font vieillir prématurément les composants. En électronique, on aime bien les trucs qui restent à température constante parce qu'on peut en prédir le vieillissement. Maintenant, il reste à savoir si la réduction de la durée de vie donne un composant dont la durée de vie est trop faible vis à vis du reste du matériel.
JKB
-- Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre masse corporelle, mais disperse à lui seul 25% de l'énergie que nous consommons tous les jours.
Patrice Karatchentzeff
JKB a écrit :
[...]
Non. Plus ton coeur dissipe de puissance parce que son design est mauvais/mal fait, plus le fait d'allumer/éteindre des bouts induit des contraintes mécaniques (dilatation et transferts de charges) qui font vieillir prématurément les composants.
Ça, je n'y crois pas un instant dans un CI. Un CMOS qui travaille en permanence vieillit mécaniquement bien plus vite que si on le laisse allumé que de temps en temps. Je te rappelle qu'on est *dans* un circuit et que l'on n'a pas les contraintes externes (comme les interrupteurs, les alim, etc.). Il n'y donc pas de contraintes de mise en charge particulière (ces contraintes sont reportées dans les plots du circuit où là, on peut mesurer des appels de courants monstrueux... je me rappelle que pour un CI en 0,5 µ (un proc pour un avion de combat) d'il y a une bonne dizaine d'années, on avait des pics de... 45 A en crête !).
Non. Plus ton coeur dissipe de puissance parce que son design
est mauvais/mal fait, plus le fait d'allumer/éteindre des
bouts induit des contraintes mécaniques (dilatation et
transferts de charges) qui font vieillir prématurément les
composants.
Ça, je n'y crois pas un instant dans un CI. Un CMOS qui travaille en
permanence vieillit mécaniquement bien plus vite que si on le laisse
allumé que de temps en temps. Je te rappelle qu'on est *dans* un
circuit et que l'on n'a pas les contraintes externes (comme les
interrupteurs, les alim, etc.). Il n'y donc pas de contraintes de mise
en charge particulière (ces contraintes sont reportées dans les plots
du circuit où là, on peut mesurer des appels de courants monstrueux...
je me rappelle que pour un CI en 0,5 µ (un proc pour un avion de
combat) d'il y a une bonne dizaine d'années, on avait des pics de...
45 A en crête !).
Non. Plus ton coeur dissipe de puissance parce que son design est mauvais/mal fait, plus le fait d'allumer/éteindre des bouts induit des contraintes mécaniques (dilatation et transferts de charges) qui font vieillir prématurément les composants.
Ça, je n'y crois pas un instant dans un CI. Un CMOS qui travaille en permanence vieillit mécaniquement bien plus vite que si on le laisse allumé que de temps en temps. Je te rappelle qu'on est *dans* un circuit et que l'on n'a pas les contraintes externes (comme les interrupteurs, les alim, etc.). Il n'y donc pas de contraintes de mise en charge particulière (ces contraintes sont reportées dans les plots du circuit où là, on peut mesurer des appels de courants monstrueux... je me rappelle que pour un CI en 0,5 µ (un proc pour un avion de combat) d'il y a une bonne dizaine d'années, on avait des pics de... 45 A en crête !).