OVH Cloud OVH Cloud

Omniprésence de l'x86 est-il une bonne chose pour Linux ?

176 réponses
Avatar
PP
Bonsoir à tous,

en lisant un peu partout sur internet des news, notamment les dernières
sur www.blogarm.net, je m'attriste de l'omniprésence de l'architecture
x86 partout.

Cette dernière semble être de plus en plus compétitive face aux
spécialistes du secteur comme ARM par exemple dans l'embarqué et les
SoC. Peut-être pas du point de vue technique mais au moins marketing !

Ma peur de voir encore une fois le couple WIntel envahir le marché de
nous imposer une vision uniforme est effrayante.

Le seul point positif peut-être de cette histoire, c'est que Linux
pourrait être choisi encore plus facilement pour tous les matériels
équipés en x86. Ce qui ouvrirait une perspective de personnalisation de
nos équipement encore plus grande !?

Qu'en pensez-vous ?

10 réponses

Avatar
ST
On 9/26/10 2:38 AM, pehache-youplaboum wrote:

Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.



Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.

Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.
Avatar
PP
Le 26/09/2010 03:59, ST a écrit :
On 9/26/10 2:38 AM, pehache-youplaboum wrote:

Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.



Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.

Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.



Faut-il en conclure que le système x86-x64 est le meilleur système ?
Choix important de processeurs ?
Gamme de prix importante ?
Puissance par puce supérieure ?
Concurrence de fondeur limitée mais non monopolistique

Le fait est qu'aujourd'hui, il n'y a qu'une architecture qui marche pour
un desktop, et même serveur (dans la majorité des cas), le x86 ou l'x64 !

Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie ! D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.

Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.

vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)

Je ne sais que penser.

Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !

Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !

Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Avatar
Doug713705
Le 26/9/2010 13:23 dans fr.comp.os.linux.debats PP nous expliquait:

Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !



Ce dernier point étant également valable pour les concurrent de MS.

--
A l'ombre de vos centrales, je crache mon cancer. Je cherche un nouveau
nom pour ma métamorphose. Je sais que mes enfants s'appelleront vers de
terre. (H.F.T. Alligator 427)
Avatar
JKB
Le Sun, 26 Sep 2010 13:23:19 +0200,
PP écrivait :
Le 26/09/2010 03:59, ST a écrit :
On 9/26/10 2:38 AM, pehache-youplaboum wrote:

Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.



Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.

Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.





Moi, je parierais sans aucun problème. Du fait de l'architecture,
sur un système identique, un MacOS X ne peut être que plus lent
qu'un Linux ou un NetBSD. Et de fait, j'ai un dual boot sur une
machine et Mac OS X perd haut la main.

Faut-il en conclure que le système x86-x64 est le meilleur système ?



Non. On ne peut pas comparer un noyau monolithique utilisant deux
anneaux (Linux, NetBSD) avec un micro-noyau et sa foultitude de
serveurs. C'est mélanger des torchons et des serviettes puisque le
micro-noyau est handicapé par les changements de contexte. C'est un
peu comme comparer sur un Alphaserver la rapidite d'accès disque
entre un Tru64 des familles et un OpenVMS en évitant de regarder la
couche RMS.

Choix important de processeurs ?
Gamme de prix importante ?
Puissance par puce supérieure ?



Le x86_64 perd là aussi haut la main. Le POWER est largement
supérieur. Le sparc aussi.

Concurrence de fondeur limitée mais non monopolistique

Le fait est qu'aujourd'hui, il n'y a qu'une architecture qui marche pour
un desktop, et même serveur (dans la majorité des cas), le x86 ou l'x64 !



Pourtant, par thread, c'est bien l'US VII FX qui mène la danse. En
terme de puissance par watt, on doit trouver des choses
intéressantes sur les T2+ et les POWER. En tout cas, ce n'est pas
sur les x86 qui ne gagnent qu'en raison de leur coût d'achat.

Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !



Ça dépend ce que tu regardes. Le processeur ne fait pas tout, il y a
l'architecture à regarder de près. En première approximation, un PC
fonctionne bien jusqu'à une charge équivalente au nombre de voies.
Lorsque tu dépasses cette limite, les performances peuvent se casser
la figure assez rapidement. Pour avoir fait des benchs, le temps de
réponse de l'architecture PC n'est pas linéaire en fonction de la
charge alors qu'elle l'est sur POWER et sur Sparc (c'est une
histoire d'interruptions et de bus système avec le goulot
d'étranglement qu'est la gestion de la mémoire. Sans compter que le
bus PCI est une m*rde.). Ce genre de chose compte beaucoup dans le
choix d'un serveur.

Dit autrement, si tu sais par avance que ta machine ne sera pas
chargée ou que tu peux limiter sa charge, un bête PC suffira. Si tu
as une base de données avec 1000 connexions simultanées, la
puissance du x86 à l'intérieur suffira, mais l'architecture ne sera
pas adaptée.

D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.

Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.



Avec la limite de garder des choix idiots. Si un jour le x86 adopte
un format d'instructions fixe, ce qui peut être fait à peu de frais
avec une obligation d'alignement mémoire, la consommation de l'engin
sera réduit de beaucoup. Une bonne partie de la puissance dissipée
par le processeur n'est pas due au fait qu'Intel ne sait pas faire
un processeur, mais par le fait que les choix valables il y a trente
ans ne sont plus pertinents. Il y a trente ans, la mémoire était
chère et il n'était pas idiot d'avoir des codes OP organisés sous la
forme d'un code entropique (avec des histoires de pages et des
instructions de longueurs différentes). Aujourd'hui, la mémoire ne
coûte plus rien et il ne serait pas idiot d'aligner les instructions
les plus courtes sur les plus longues pour éviter toute la logique
interne au processeur et juste destinées à remettre les instructions
au bon format. Intel y a d'ailleurs pensé puisqu'il existe un tel
mode de fonctionnement dans les x86.

Et cet alignement pourrait se faire _sans_ problème de compatibilité
puisque cet alignement peut être fait lors du chargement d'un
binaire ELF en mémoire. Il suffit de le vouloir.

vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)



C'est un autre problème. Il n'y a que très peu de processeurs durcis
pour le spatial.

Je ne sais que penser.

Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !

Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !



C'est un problème de code ouvert ou fermé, pas un problème
d'architecture.

Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !



Ma machine à laver tourne avec un i386EX. Je serai curieux
d'installer un Windows là-dessus...

JKB

--
Si votre demande me parvient sur carte perforée, je titiouaillerai très
volontiers une réponse...
=> http://grincheux.de-charybde-en-scylla.fr
Avatar
pipantal
Le 26/09/2010 14:40, Doug713705 a écrit :
Le 26/9/2010 13:23 dans fr.comp.os.linux.debats PP nous expliquait:

Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !



Ce dernier point étant également valable pour les concurrent de MS.



Oui mais avec 90% de part de marché, le jeu n'est-il pas déjà joué ?
Avatar
pipantal
Le 26/09/2010 16:39, JKB a écrit :
Le Sun, 26 Sep 2010 13:23:19 +0200,
PP écrivait :
Le 26/09/2010 03:59, ST a écrit :
On 9/26/10 2:38 AM, pehache-youplaboum wrote:

Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.



Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.

Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.





Moi, je parierais sans aucun problème. Du fait de l'architecture,
sur un système identique, un MacOS X ne peut être que plus lent
qu'un Linux ou un NetBSD. Et de fait, j'ai un dual boot sur une
machine et Mac OS X perd haut la main.

Faut-il en conclure que le système x86-x64 est le meilleur système ?



Non. On ne peut pas comparer un noyau monolithique utilisant deux
anneaux (Linux, NetBSD) avec un micro-noyau et sa foultitude de
serveurs. C'est mélanger des torchons et des serviettes puisque le
micro-noyau est handicapé par les changements de contexte. C'est un
peu comme comparer sur un Alphaserver la rapidite d'accès disque
entre un Tru64 des familles et un OpenVMS en évitant de regarder la
couche RMS.



En étant provocateur sur "le meilleur du monde" je pensais par le fait
que finalement tout le monde fini par se tourner vers une technologie
x86 ! Je n'étais pas dans la comparaison ;)

Choix important de processeurs ?
Gamme de prix importante ?
Puissance par puce supérieure ?



Le x86_64 perd là aussi haut la main. Le POWER est largement
supérieur. Le sparc aussi.

Concurrence de fondeur limitée mais non monopolistique

Le fait est qu'aujourd'hui, il n'y a qu'une architecture qui marche pour
un desktop, et même serveur (dans la majorité des cas), le x86 ou l'x64 !



Pourtant, par thread, c'est bien l'US VII FX qui mène la danse. En
terme de puissance par watt, on doit trouver des choses
intéressantes sur les T2+ et les POWER. En tout cas, ce n'est pas
sur les x86 qui ne gagnent qu'en raison de leur coût d'achat.



Donc Mips/W US et POWER gagne, mais Mips/€ c'est l'x86 ou plutôt l'x64 !
Mais au final, le vainqueur c'est qui ?
Pour l'utilisateur lambda ?
Pour le serveur ?
Pour le producteur de boule quies ?
Pour le producteur d'électricité ?
Etc ?

Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !



Ça dépend ce que tu regardes. Le processeur ne fait pas tout, il y a
l'architecture à regarder de près. En première approximation, un PC
fonctionne bien jusqu'à une charge équivalente au nombre de voies.
Lorsque tu dépasses cette limite, les performances peuvent se casser
la figure assez rapidement. Pour avoir fait des benchs, le temps de
réponse de l'architecture PC n'est pas linéaire en fonction de la
charge alors qu'elle l'est sur POWER et sur Sparc (c'est une
histoire d'interruptions et de bus système avec le goulot
d'étranglement qu'est la gestion de la mémoire. Sans compter que le
bus PCI est une m*rde.). Ce genre de chose compte beaucoup dans le
choix d'un serveur.



Si cela se traduit, par le fait que par moment mon PC ne répond
quasiment plus à rien, parce qu'il a les application dans tous les sens,
avec base de donnée entre-autre ouverte (pas la meilleure), etc. en mode
Windows, je suis d'accord.
Mais bon, le PCI n'est pas une obligation de l'x86, il suffit d'avoir le
chipset qui gère un autre type de bus, comme les SCSI-family ou autre
bus de périphérique par exemple, et ce défaut se règle non ?


Dit autrement, si tu sais par avance que ta machine ne sera pas
chargée ou que tu peux limiter sa charge, un bête PC suffira. Si tu
as une base de données avec 1000 connexions simultanées, la
puissance du x86 à l'intérieur suffira, mais l'architecture ne sera
pas adaptée.



Enfin bon, le consommateur aujourd'hui n'a plus de choix.
Pour une station de travail, c'est x86, et personne n'arrive à présenter
une alternative, et dès lors qu'on veut plus de puissance, on nous pond
un truc, plus puissant.
J'ai l'impression, que les autres architectures POWER ou US, était
capable de fournir des puissances qui ne sont pas dépassées aujourd'hui,
mais qui à l'époque ne correspondant pas à la demande, se sont tirés une
balle dans le pied pour la commercialisation en masse.
La puissance de l'x86 est aussi peut-être de fabriquer ce que le
consommateur attend, ou tout du moins ce qu'on lui fait attendre.
On consomme tout de suite, dans 3 ans, de tout façon je change ! Et
c'est pas cher.

D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.

Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.



Avec la limite de garder des choix idiots. Si un jour le x86 adopte
un format d'instructions fixe, ce qui peut être fait à peu de frais
avec une obligation d'alignement mémoire, la consommation de l'engin
sera réduit de beaucoup. Une bonne partie de la puissance dissipée
par le processeur n'est pas due au fait qu'Intel ne sait pas faire
un processeur, mais par le fait que les choix valables il y a trente
ans ne sont plus pertinents. Il y a trente ans, la mémoire était
chère et il n'était pas idiot d'avoir des codes OP organisés sous la
forme d'un code entropique (avec des histoires de pages et des
instructions de longueurs différentes). Aujourd'hui, la mémoire ne
coûte plus rien et il ne serait pas idiot d'aligner les instructions
les plus courtes sur les plus longues pour éviter toute la logique
interne au processeur et juste destinées à remettre les instructions
au bon format. Intel y a d'ailleurs pensé puisqu'il existe un tel
mode de fonctionnement dans les x86.



C'est intéressant ce que tu dis.
En gros, l'x86, a donc encore la possibilité de gagner sur les tableaux
de la consommation en généralisant l'alignement des instructions ?
En gros, facilement aussi, Intel pourrait au niveau exécution améliorer
le parallelisme d'exécution et devait multiscalaire à l'image des sparc ?


Et cet alignement pourrait se faire _sans_ problème de compatibilité
puisque cet alignement peut être fait lors du chargement d'un
binaire ELF en mémoire. Il suffit de le vouloir.



Cad, une option de compilation simplement ?

vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)



C'est un autre problème. Il n'y a que très peu de processeurs durcis
pour le spatial.

Je ne sais que penser.

Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !

Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !



C'est un problème de code ouvert ou fermé, pas un problème
d'architecture.



oui, mais s'il est difficile (de moins en moins d'ailleurs) d'avoir un
périphérique ayant un pilote sous Linux développé sous x86, je ne parle
même pas d'ARM, POWER, SPARC ou autre MIPS, etc.

Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !



Ma machine à laver tourne avec un i386EX. Je serai curieux
d'installer un Windows là-dessus...



Mais un petit Windows adapté ? ça doit pas être compliqué !!!!!
Avatar
JKB
Le Sun, 26 Sep 2010 18:41:43 +0200,
pipantal écrivait :
Pourtant, par thread, c'est bien l'US VII FX qui mène la danse. En
terme de puissance par watt, on doit trouver des choses
intéressantes sur les T2+ et les POWER. En tout cas, ce n'est pas
sur les x86 qui ne gagnent qu'en raison de leur coût d'achat.



Donc Mips/W US et POWER gagne, mais Mips/€ c'est l'x86 ou plutôt l'x64 !
Mais au final, le vainqueur c'est qui ?
Pour l'utilisateur lambda ?
Pour le serveur ?



Sparc ou power.

Pour le producteur de boule quies ?
Pour le producteur d'électricité ?



x86 sans aucune réserve.

Etc ?

Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !



Ça dépend ce que tu regardes. Le processeur ne fait pas tout, il y a
l'architecture à regarder de près. En première approximation, un PC
fonctionne bien jusqu'à une charge équivalente au nombre de voies.
Lorsque tu dépasses cette limite, les performances peuvent se casser
la figure assez rapidement. Pour avoir fait des benchs, le temps de
réponse de l'architecture PC n'est pas linéaire en fonction de la
charge alors qu'elle l'est sur POWER et sur Sparc (c'est une
histoire d'interruptions et de bus système avec le goulot
d'étranglement qu'est la gestion de la mémoire. Sans compter que le
bus PCI est une m*rde.). Ce genre de chose compte beaucoup dans le
choix d'un serveur.



Si cela se traduit, par le fait que par moment mon PC ne répond
quasiment plus à rien, parce qu'il a les application dans tous les sens,
avec base de donnée entre-autre ouverte (pas la meilleure), etc. en mode
Windows, je suis d'accord.
Mais bon, le PCI n'est pas une obligation de l'x86, il suffit d'avoir le
chipset qui gère un autre type de bus, comme les SCSI-family ou autre
bus de périphérique par exemple, et ce défaut se règle non ?



Et tu penses accéder au SCSI comment si ce n'est au travers du bus
PCI. Tu n'es pas sur sparc où le SCSI est sur le bus système.

Dit autrement, si tu sais par avance que ta machine ne sera pas
chargée ou que tu peux limiter sa charge, un bête PC suffira. Si tu
as une base de données avec 1000 connexions simultanées, la
puissance du x86 à l'intérieur suffira, mais l'architecture ne sera
pas adaptée.



Enfin bon, le consommateur aujourd'hui n'a plus de choix.
Pour une station de travail, c'est x86, et personne n'arrive à présenter
une alternative, et dès lors qu'on veut plus de puissance, on nous pond
un truc, plus puissant.
J'ai l'impression, que les autres architectures POWER ou US, était
capable de fournir des puissances qui ne sont pas dépassées aujourd'hui,
mais qui à l'époque ne correspondant pas à la demande, se sont tirés une
balle dans le pied pour la commercialisation en masse.



Ne jamais oublier que si NT4 était censé tourner sur mips, sparc et
quelques autres architectures (j'ai encore les CD de boot de tels
NT4), le x86 n'aurait peut-être pas gagné.

La puissance de l'x86 est aussi peut-être de fabriquer ce que le
consommateur attend, ou tout du moins ce qu'on lui fait attendre.
On consomme tout de suite, dans 3 ans, de tout façon je change ! Et
c'est pas cher.



Et on en a pour son argent.

D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.

Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.



Avec la limite de garder des choix idiots. Si un jour le x86 adopte
un format d'instructions fixe, ce qui peut être fait à peu de frais
avec une obligation d'alignement mémoire, la consommation de l'engin
sera réduit de beaucoup. Une bonne partie de la puissance dissipée
par le processeur n'est pas due au fait qu'Intel ne sait pas faire
un processeur, mais par le fait que les choix valables il y a trente
ans ne sont plus pertinents. Il y a trente ans, la mémoire était
chère et il n'était pas idiot d'avoir des codes OP organisés sous la
forme d'un code entropique (avec des histoires de pages et des
instructions de longueurs différentes). Aujourd'hui, la mémoire ne
coûte plus rien et il ne serait pas idiot d'aligner les instructions
les plus courtes sur les plus longues pour éviter toute la logique
interne au processeur et juste destinées à remettre les instructions
au bon format. Intel y a d'ailleurs pensé puisqu'il existe un tel
mode de fonctionnement dans les x86.



C'est intéressant ce que tu dis.
En gros, l'x86, a donc encore la possibilité de gagner sur les tableaux
de la consommation en généralisant l'alignement des instructions ?



Oui. Il suffirait de forcer le mode en question (en espérant qu'il
ne soit pas buggué, je ne me suis pas penché sur le problème
récemment).

En gros, facilement aussi, Intel pourrait au niveau exécution améliorer
le parallelisme d'exécution et devait multiscalaire à l'image des sparc ?



Là, il ne faut pas exagérer. Le RISC évite des prédictions de saut
avec cassage de gueule du pipe-line. C'est dû à deux choses : format
d'instruction fixe _et_ traitement en nombre fixe de tops d'horloge.
Sur x86, les instructions ne sont pas traitées en un nombre fixe
de cycle. Pire, elles peuvent (de mémoire) être exécutées dans le
désordre. Donc pour optimiser tout ça, ce n'est pas gagné. C'est
typiquement ce genre de choses qui a fait que le P4 était une bouse.

Et cet alignement pourrait se faire _sans_ problème de compatibilité
puisque cet alignement peut être fait lors du chargement d'un
binaire ELF en mémoire. Il suffit de le vouloir.



Cad, une option de compilation simplement ?



Non, une modification du chargement du format binaire en mémoire par
l'OS.

vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)



C'est un autre problème. Il n'y a que très peu de processeurs durcis
pour le spatial.

Je ne sais que penser.

Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !

Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !



C'est un problème de code ouvert ou fermé, pas un problème
d'architecture.



oui, mais s'il est difficile (de moins en moins d'ailleurs) d'avoir un
périphérique ayant un pilote sous Linux développé sous x86, je ne parle
même pas d'ARM, POWER, SPARC ou autre MIPS, etc.



?

Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !



Ma machine à laver tourne avec un i386EX. Je serai curieux
d'installer un Windows là-dessus...



Mais un petit Windows adapté ? ça doit pas être compliqué !!!!!



Il n'y a pas de lecteur de disquette pour booter.

JKB

--
Si votre demande me parvient sur carte perforée, je titiouaillerai très
volontiers une réponse...
=> http://grincheux.de-charybde-en-scylla.fr
Avatar
Tonton Th
On 09/24/2010 02:16 AM, Miod Vallat wrote:

purge de caches... mais toujours pas de coprocesseur arithmétique, donc
restant un jouet pour geeks.



ARM9 20T CIRRUS LOGIC modèle EP9315
intégrant un coprocesseur mathématique MAVERICK CRUNCH

Mais j'ai entendu dire que ce maverick était assez buggué.

--
Ma coiffeuse est formidable - http://sonia.buvette.org/
Avatar
Doug713705
Le 26/9/2010 18:15 dans fr.comp.os.linux.debats pipantal nous
expliquait:


Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !



Ce dernier point étant également valable pour les concurrents de MS.



Oui mais avec 90% de part de marché, le jeu n'est-il pas déjà joué ?



C'est un autre problème.
L'antériorité de MS sur cette architecture ainsi que quelques habiles
méthodes commerciales (pas toujours très honnêtes, j'en conviens
volontiers) lui ont permis de s'imposer.

--
Nous sommes de vieux enfants traînant nos écorchures à travers les
décors jaunis d'un vieux cartoon. Nous marchons sur Berlin en gobant
nos ½ufs durs et nous sommes à Paris victimes d'un baby-boom. (H.F.T.
Une fille au rhésus négatif)
Avatar
Tonton Th
On 09/24/2010 01:19 PM, P4nd1-P4nd4 wrote:


Et finalement, si l'on regardait le résultat ?




Sur ma précédente machine (Intel 32bits) flash était le _seul_ truc
qui se gauffrait régulièrement plusieurs fois par jour.



--
Ma coiffeuse est formidable - http://sonia.buvette.org/