OVH Cloud OVH Cloud

Linux perd 2 % de performance par année

124 réponses
Avatar
P4nd1 - P4nd4
http://www.zdnet.fr/actualites/informatique/0,39040745,39707620,00.htm

" ...Cette réaction était la réponse du développeur à un ingénieur de
Novell citant une étude interne d'Intel selon laquelle la performance
de Linux reculait de 2% à chaque nouvelle version, portant ainsi à 12%
la baisse de performance globale depuis 10 ans.

-12% de performance en 10 ans..."


Je croyais que le système s'améliorait jour après jour, et bien en fait
il diminue

Dans une centaine d'année environ, il aura atteint une performance
générale de 0%, ce qui en fera le système le plus inutile du monde

Quand je pense que certains riaient, lorsque je disais que Linux allait
s'effondrer sur lui-même, tel un trou noir ;>))

P4nd1-P4nd4

10 réponses

Avatar
JKB
Le 25-09-2009, ? propos de
Re: Linux perd 2 % de performance par année,
Thierry B ?crivait dans fr.comp.os.linux.debats :
On 2009-09-24, P4nd1 - P4nd4 wrote:

http://www.theinquirer.net/inquirer/news/1137342/fujitsu-unveils-world-s-fastest-cpu



Aujourd'hui, on ne cherche plus à faire le "processeur le plus puissant
du monde"



D'où tu sort ça ? Les recherches en terme de processezurs "plus puissant"
ne se sont jamais aussi bien portées.

On fait des clusters, et la plupart ont des x86 Intel ou AMD ;>)



Le cluster n'est pas la solution universelle, la preuve : le truc 'hype'
du moment, c'est la virtualisation,



Oh p'taing, c'est vrai, j'avais oublié que c'était malheureusement
la mode du moment... Heureusement que la mode est si mauvaise qu'on
doit en changer tous les six mois...

qui est l'inverse/opposé du cluster.



JKB

--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.
Avatar
Cumbalero
Mihamina Rakotomandimby a écrit :
09/25/2009 10:32 AM, Thierry B:
Comme d'habitude, campé sur tes certitudes, tu racontes n'importe
quoi.



Il n'a aucun certitude, voyons. Dites-mois un peu de quoi est-il certai n?



Que Bill Gates est le big boss de la plus merveilleuse entreprise du mond e.


Ne lui dites pas que même son gourou est parti...


A+
JF
Avatar
P4nd1 - P4nd4
JKB a pensé très fort :
Le 24-09-2009, ? propos de
Re: Linux perd 2 % de performance par année,
P4nd1 - P4nd4 ?crivait dans fr.comp.os.linux.debats :
Thierry B a écrit :
On 2009-09-24, P4nd1 - P4nd4 wrote:

Bof, toutes ces vieilles technologies sont quasimment disparues



C'est pourtant un processeur UltraSparc qui est le plus puissant
du monde...

http://www.theinquirer.net/inquirer/news/1137342/fujitsu-unveils-world-s-fastest-cpu



Aujourd'hui, on ne cherche plus à faire le "processeur le plus puissant
du monde"



Ah bon ? Figure-toi mon petit branli-branla qu'il y a des choses qui
ne sont pas vraiment parallélisables (comme l'immense majorité des
requêtes sur une base de données par exemple, ce qui est
certainement un point anecdotique de l'utilisation de l'informatique).

On fait des clusters, et la plupart ont des x86 Intel ou AMD ;>)



Quand tu fais du calcul intensif et massivement parallèle, tu
n'utilises pas forcément du PC ne serait-ce que pour des histoires
indépendantes des processeurs.

1/ Il doit exister des choses à paralléliser dans le code.
2/ Le cluster (duquel parle-t-on : grappe de calcul ou SSI ?) doit
pouvoir être maintenable à distance (donc processeur de service,
tout ça, subtilement ignoré dans le monde du beurk).
3/ La consommation électrique doit être bornée (et on cause mips ou
mflops par Watt et là, on se marre avec les PC).
4/ Le calcul intensif est souvent limité par le côté scalaire des
processeurs du beurk et les alignements mémoire, mais tu ne vas pas
comprendre.
5/ Les gens achètent du PC parce que c'est de la merde pas chère et
que ça suffit pour le péquin moyen.

Il y a un dernier truc que tu sembles ignorer en parlant de calcul
intensif. Je vais utiliser une métaphore pour esprit simple :
lorsque tu as un tas de sable de plusieurs mètres cubes à bouger (tu
sais, le truc dans lequel tu fais tes pâtés), tu peux utiliser deux
choses. Tu peux utiliser une pelle et la faire bouger très vite
(configuration du PC courant après les mégahertz) ou tu peux prendre
un tractopelle qui bougera plus lentement (situation des PowerPC,
des Alpha ou des Sparc, sans compter ceux que j'oublie.).

Que tu le veuilles ou non, le PC est _mauvais_ en calcul dès que
le nombre de threads dépasse le nombre de voies du calculateur
(en d'autres termes, le temps de réponse augmente exponentiellement
en fonction du nombre de tâches parallèles sur architecture PC dès
que le nombre de tâches dépasse le nombre de processeurs), alors que
pour d'autres architectures, l'augmentation est _linéaire_. J'ai
fait des benchs entre un serveur octo opteron à 2,2 GHz (8 coeurs)
et un autre avec un T1 à 1 GHz (8 coeurs, 32 threads), les deux tournant
avec les _mêmes_ disques SAS sur la _même_ base MySQL et avec le
même OS. J'ai poussé le vice à essayer Solaris et Linux sur les deux
machines (pas en même temps, hein !...). Jusqu'à huit
requêtes simultanées, le beurk explosait largement le T1. À partir
de 16 requêtes simultanées, le T1 était devant le beurk. À 100
requêtes simultanées, il fallait plus de deux minutes au beurk pour
donner une réponse alors que le T1 renvoyait le résultat en moins de
10 secondes. J'ai fait le même genre de tests avec un AS800 muni
d'un 21164A/500 et le gagnant est là-encore l'AS800 à partir d'une
cinquantaine de requêtes simultanées. Pour brali-branla, l'AS800
n'est pas un double AS/400, c'est une machine sur laquelle il y a
encore le logo 'DIGITAL', qui tourne présentement avec OpenVMS 8.3
(donc assez défavorisée en terme de rapidité d'accès aux disques en
raison de la couche RMS), et qui fout encore la pâtée à un beurk de
dix ans plus jeune sur des histoires de requêtes sur des bases de
données (pour ton information encore, mon petit branli-branla, avant
que tu ne retournes à l'école, c'est bientôt l'heure, un bloc Seti
était calculé en un peu moins de trois heures sur un 21264/433 MHz
alors qu'il fallait plus de six heures à un Athlon XP/900 MHz pour
effectuer exactement le même boulot en 2001).

JKB



Toi tu est resté empêtré dans les fils depuis tout petit ;>))
Avatar
JKB
Le 25-09-2009, ? propos de
Re: Linux perd 2 % de performance par année,
P4nd1 - P4nd4 ?crivait dans fr.comp.os.linux.debats :
JKB a pensé très fort :
Le 24-09-2009, ? propos de
Re: Linux perd 2 % de performance par année,
P4nd1 - P4nd4 ?crivait dans fr.comp.os.linux.debats :
Thierry B a écrit :
On 2009-09-24, P4nd1 - P4nd4 wrote:

Bof, toutes ces vieilles technologies sont quasimment disparues



C'est pourtant un processeur UltraSparc qui est le plus puissant
du monde...

http://www.theinquirer.net/inquirer/news/1137342/fujitsu-unveils-world-s-fastest-cpu



Aujourd'hui, on ne cherche plus à faire le "processeur le plus puissant
du monde"



Ah bon ? Figure-toi mon petit branli-branla qu'il y a des choses qui
ne sont pas vraiment parallélisables (comme l'immense majorité des
requêtes sur une base de données par exemple, ce qui est
certainement un point anecdotique de l'utilisation de l'informatique).

On fait des clusters, et la plupart ont des x86 Intel ou AMD ;>)



Quand tu fais du calcul intensif et massivement parallèle, tu
n'utilises pas forcément du PC ne serait-ce que pour des histoires
indépendantes des processeurs.

1/ Il doit exister des choses à paralléliser dans le code.
2/ Le cluster (duquel parle-t-on : grappe de calcul ou SSI ?) doit
pouvoir être maintenable à distance (donc processeur de service,
tout ça, subtilement ignoré dans le monde du beurk).
3/ La consommation électrique doit être bornée (et on cause mips ou
mflops par Watt et là, on se marre avec les PC).
4/ Le calcul intensif est souvent limité par le côté scalaire des
processeurs du beurk et les alignements mémoire, mais tu ne vas pas
comprendre.
5/ Les gens achètent du PC parce que c'est de la merde pas chère et
que ça suffit pour le péquin moyen.

Il y a un dernier truc que tu sembles ignorer en parlant de calcul
intensif. Je vais utiliser une métaphore pour esprit simple :
lorsque tu as un tas de sable de plusieurs mètres cubes à bouger (tu
sais, le truc dans lequel tu fais tes pâtés), tu peux utiliser deux
choses. Tu peux utiliser une pelle et la faire bouger très vite
(configuration du PC courant après les mégahertz) ou tu peux prendre
un tractopelle qui bougera plus lentement (situation des PowerPC,
des Alpha ou des Sparc, sans compter ceux que j'oublie.).

Que tu le veuilles ou non, le PC est _mauvais_ en calcul dès que
le nombre de threads dépasse le nombre de voies du calculateur
(en d'autres termes, le temps de réponse augmente exponentiellement
en fonction du nombre de tâches parallèles sur architecture PC dès
que le nombre de tâches dépasse le nombre de processeurs), alors que
pour d'autres architectures, l'augmentation est _linéaire_. J'ai
fait des benchs entre un serveur octo opteron à 2,2 GHz (8 coeurs)
et un autre avec un T1 à 1 GHz (8 coeurs, 32 threads), les deux tournant
avec les _mêmes_ disques SAS sur la _même_ base MySQL et avec le
même OS. J'ai poussé le vice à essayer Solaris et Linux sur les deux
machines (pas en même temps, hein !...). Jusqu'à huit
requêtes simultanées, le beurk explosait largement le T1. À partir
de 16 requêtes simultanées, le T1 était devant le beurk. À 100
requêtes simultanées, il fallait plus de deux minutes au beurk pour
donner une réponse alors que le T1 renvoyait le résultat en moins de
10 secondes. J'ai fait le même genre de tests avec un AS800 muni
d'un 21164A/500 et le gagnant est là-encore l'AS800 à partir d'une
cinquantaine de requêtes simultanées. Pour brali-branla, l'AS800
n'est pas un double AS/400, c'est une machine sur laquelle il y a
encore le logo 'DIGITAL', qui tourne présentement avec OpenVMS 8.3
(donc assez défavorisée en terme de rapidité d'accès aux disques en
raison de la couche RMS), et qui fout encore la pâtée à un beurk de
dix ans plus jeune sur des histoires de requêtes sur des bases de
données (pour ton information encore, mon petit branli-branla, avant
que tu ne retournes à l'école, c'est bientôt l'heure, un bloc Seti
était calculé en un peu moins de trois heures sur un 21264/433 MHz
alors qu'il fallait plus de six heures à un Athlon XP/900 MHz pour
effectuer exactement le même boulot en 2001).

JKB



Toi tu est resté empêtré dans les fils depuis tout petit ;>))



C'est un peu court, jeune homme...

JKB

--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.
Avatar
P4nd1 - P4nd4
Cumbalero a formulé ce vendredi :
P4nd1 - P4nd4 a écrit :

Aujourd'hui, on ne cherche plus à faire le "processeur le plus puissant du
monde"



Ah? Alors pourquoi Intel et AMD continuent à se balancer à la gueule les
perfs de leurs CPUs et GPUs?


On fait des clusters, et la plupart ont des x86 Intel ou AMD ;>)



des quoi? Tu peux donner ta définition de ce mot, qu'on rigole?

Et... tu considères que x86 est une architecture d'avenir? C'est quoi ton
critère? Que Windows ne tourne pas sur ARM?



Ca me rappelle les potes qui affirmaient haut et fort

"L'architecture Pentium n'est pas performante, la RISC POwerPC est bien
supérieur, et ces processeurs écarteront Intel du marché"


LOL. Mieux encore

"Les processeurs Intel sont des gouffres en consommation, et une
nouvelle start-up, comme Transmeta, dominera rapidement le marché des
processeurs mobiles"

Hohohohohohoho

"Les processeurs AMD, grâce à leur architecture novatrice, sont bien
supérieurs aux processeurs Intel. D'ailleurs, AMD vient de passer le
GHZ"


LOLOLOLOL
Avatar
Cumbalero
P4nd1 - P4nd4 a écrit :

"L'architecture Pentium n'est pas performante, la RISC POwerPC est bien
supérieur, et ces processeurs écarteront Intel du marché"



C'est le cas pour de nombreuses applications.

"Les processeurs Intel sont des gouffres en consommation



C'est tout à fait exact. Une telle consommation pour cette puissance,
c'est un désastre. Pourquoi les procs ARM sont de plus en plus utilisé s
dans les applications nomades à ton avis?

nouvelle start-up, comme Transmeta, dominera rapidement le marché des
processeurs mobiles"



Je veux bien un exemple d'appareil nomade avec un proc Intel.


A+
JF
Avatar
JKB
Le 25-09-2009, ? propos de
Re: Linux perd 2 % de performance par année,
Cumbalero ?crivait dans fr.comp.os.linux.debats :
P4nd1 - P4nd4 a écrit :

"L'architecture Pentium n'est pas performante, la RISC POwerPC est bien
supérieur, et ces processeurs écarteront Intel du marché"



C'est le cas pour de nombreuses applications.

"Les processeurs Intel sont des gouffres en consommation



C'est tout à fait exact. Une telle consommation pour cette puissance,
c'est un désastre. Pourquoi les procs ARM sont de plus en plus utilisés
dans les applications nomades à ton avis?

nouvelle start-up, comme Transmeta, dominera rapidement le marché des
processeurs mobiles"



Je veux bien un exemple d'appareil nomade avec un proc Intel.



Tu devrais aussi lui demander le taux de panne des appareils rackés
en CompactPCI. Outre le fait que le cPCI est une bouse (pour les
mêmes raisons que le PCI l'est, mais on ne va pas rentrer dans le
détail de la négociation PCI), les pannes viennent en grande
majorité des cartes processeur. Dans mon ancienne boîte, lorsqu'on a
changé les modèles à Celeron qui dissipaient une grosse centaine de
Watts par un truc plus puissant à base de PowerPC je ne sais plus
combien, on s'est retrouvé avec une carte processeur dissipant une
vingtaine de Watts et n'ayant plus _aucun_ ventilateur, tu sais, le
sale truc qui tombe en panne et qui fait cramer les composants...

JKB

--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.
Avatar
Kevin Denis
Le 25-09-2009, Cumbalero a écrit :
nouvelle start-up, comme Transmeta, dominera rapidement le marché des
processeurs mobiles"



Je veux bien un exemple d'appareil nomade avec un proc Intel.



Les netbooks? Ceci dit, la mobilité pour eux, c'est plus le poids
qu'autre chose qui joue.
--
Kevin
Avatar
Cumbalero
Kevin Denis a écrit :

Les netbooks? Ceci dit, la mobilité pour eux, c'est plus le poids
qu'autre chose qui joue.



Je pensais plus à des appareils comme des GSM, des appareils mobiles
multimedia ou des GPS, mais pourquoi pas, la problématique est la mêm e.

Le poids est constitué pour une part importante par la batterie, pour
avoir une autonomie utilisable. Pour baisser le poids sans sacrifier
l'autonomie et les perfs, il faut utiliser des procs qui servent plus à
calculer qu'à réchauffer le café.

D'où l'intérêt de l'ARM par exemple.


A+
JF
Avatar
Thierry B
On 2009-09-25, JKB wrote:

était calculé en un peu moins de trois heures sur un 21264/433 MHz
alors qu'il fallait plus de six heures à un Athlon XP/900 MHz pour
effectuer exactement le même boulot en 2001).



Il faudrait que je prenne le temps de bencher mon P3 vs ma U5 qui
ont la même fréquence, la même taille de ram, et des disques en
gros équivalents.


--
| Non, non ce sont les onduleurs [1] qui livrent partout dans le monde...
| [1] UPS en anglais. cf les HOWTO linux [2]
UPS ? Université Paul Sabatier ?


Tu serais pas de toulouse toi ?