Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
On 9/26/10 2:38 AM, pehache-youplaboum wrote:Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.
Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.
On 9/26/10 2:38 AM, pehache-youplaboum wrote:
Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.
Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.
On 9/26/10 2:38 AM, pehache-youplaboum wrote:Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.
Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Le 26/09/2010 03:59, ST a écrit :On 9/26/10 2:38 AM, pehache-youplaboum wrote:Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.
Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.
Faut-il en conclure que le système x86-x64 est le meilleur système ?
Choix important de processeurs ?
Gamme de prix importante ?
Puissance par puce supérieure ?
Concurrence de fondeur limitée mais non monopolistique
Le fait est qu'aujourd'hui, il n'y a qu'une architecture qui marche pour
un desktop, et même serveur (dans la majorité des cas), le x86 ou l'x64 !
Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !
D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.
Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.
vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)
Je ne sais que penser.
Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !
Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Le 26/09/2010 03:59, ST a écrit :
On 9/26/10 2:38 AM, pehache-youplaboum wrote:
Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.
Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.
Faut-il en conclure que le système x86-x64 est le meilleur système ?
Choix important de processeurs ?
Gamme de prix importante ?
Puissance par puce supérieure ?
Concurrence de fondeur limitée mais non monopolistique
Le fait est qu'aujourd'hui, il n'y a qu'une architecture qui marche pour
un desktop, et même serveur (dans la majorité des cas), le x86 ou l'x64 !
Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !
D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.
Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.
vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)
Je ne sais que penser.
Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !
Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Le 26/09/2010 03:59, ST a écrit :On 9/26/10 2:38 AM, pehache-youplaboum wrote:Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.
Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.
Faut-il en conclure que le système x86-x64 est le meilleur système ?
Choix important de processeurs ?
Gamme de prix importante ?
Puissance par puce supérieure ?
Concurrence de fondeur limitée mais non monopolistique
Le fait est qu'aujourd'hui, il n'y a qu'une architecture qui marche pour
un desktop, et même serveur (dans la majorité des cas), le x86 ou l'x64 !
Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !
D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.
Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.
vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)
Je ne sais que penser.
Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !
Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Le 26/9/2010 13:23 dans fr.comp.os.linux.debats PP nous expliquait:Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ce dernier point étant également valable pour les concurrent de MS.
Le 26/9/2010 13:23 dans fr.comp.os.linux.debats PP nous expliquait:
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ce dernier point étant également valable pour les concurrent de MS.
Le 26/9/2010 13:23 dans fr.comp.os.linux.debats PP nous expliquait:Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ce dernier point étant également valable pour les concurrent de MS.
Le Sun, 26 Sep 2010 13:23:19 +0200,
PP écrivait :Le 26/09/2010 03:59, ST a écrit :On 9/26/10 2:38 AM, pehache-youplaboum wrote:Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.
Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.
Moi, je parierais sans aucun problème. Du fait de l'architecture,
sur un système identique, un MacOS X ne peut être que plus lent
qu'un Linux ou un NetBSD. Et de fait, j'ai un dual boot sur une
machine et Mac OS X perd haut la main.Faut-il en conclure que le système x86-x64 est le meilleur système ?
Non. On ne peut pas comparer un noyau monolithique utilisant deux
anneaux (Linux, NetBSD) avec un micro-noyau et sa foultitude de
serveurs. C'est mélanger des torchons et des serviettes puisque le
micro-noyau est handicapé par les changements de contexte. C'est un
peu comme comparer sur un Alphaserver la rapidite d'accès disque
entre un Tru64 des familles et un OpenVMS en évitant de regarder la
couche RMS.
Choix important de processeurs ?
Gamme de prix importante ?
Puissance par puce supérieure ?
Le x86_64 perd là aussi haut la main. Le POWER est largement
supérieur. Le sparc aussi.Concurrence de fondeur limitée mais non monopolistique
Le fait est qu'aujourd'hui, il n'y a qu'une architecture qui marche pour
un desktop, et même serveur (dans la majorité des cas), le x86 ou l'x64 !
Pourtant, par thread, c'est bien l'US VII FX qui mène la danse. En
terme de puissance par watt, on doit trouver des choses
intéressantes sur les T2+ et les POWER. En tout cas, ce n'est pas
sur les x86 qui ne gagnent qu'en raison de leur coût d'achat.
Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !
Ça dépend ce que tu regardes. Le processeur ne fait pas tout, il y a
l'architecture à regarder de près. En première approximation, un PC
fonctionne bien jusqu'à une charge équivalente au nombre de voies.
Lorsque tu dépasses cette limite, les performances peuvent se casser
la figure assez rapidement. Pour avoir fait des benchs, le temps de
réponse de l'architecture PC n'est pas linéaire en fonction de la
charge alors qu'elle l'est sur POWER et sur Sparc (c'est une
histoire d'interruptions et de bus système avec le goulot
d'étranglement qu'est la gestion de la mémoire. Sans compter que le
bus PCI est une m*rde.). Ce genre de chose compte beaucoup dans le
choix d'un serveur.
Dit autrement, si tu sais par avance que ta machine ne sera pas
chargée ou que tu peux limiter sa charge, un bête PC suffira. Si tu
as une base de données avec 1000 connexions simultanées, la
puissance du x86 à l'intérieur suffira, mais l'architecture ne sera
pas adaptée.
D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.
Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.
Avec la limite de garder des choix idiots. Si un jour le x86 adopte
un format d'instructions fixe, ce qui peut être fait à peu de frais
avec une obligation d'alignement mémoire, la consommation de l'engin
sera réduit de beaucoup. Une bonne partie de la puissance dissipée
par le processeur n'est pas due au fait qu'Intel ne sait pas faire
un processeur, mais par le fait que les choix valables il y a trente
ans ne sont plus pertinents. Il y a trente ans, la mémoire était
chère et il n'était pas idiot d'avoir des codes OP organisés sous la
forme d'un code entropique (avec des histoires de pages et des
instructions de longueurs différentes). Aujourd'hui, la mémoire ne
coûte plus rien et il ne serait pas idiot d'aligner les instructions
les plus courtes sur les plus longues pour éviter toute la logique
interne au processeur et juste destinées à remettre les instructions
au bon format. Intel y a d'ailleurs pensé puisqu'il existe un tel
mode de fonctionnement dans les x86.
Et cet alignement pourrait se faire _sans_ problème de compatibilité
puisque cet alignement peut être fait lors du chargement d'un
binaire ELF en mémoire. Il suffit de le vouloir.
vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)
C'est un autre problème. Il n'y a que très peu de processeurs durcis
pour le spatial.Je ne sais que penser.
Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !
Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !
C'est un problème de code ouvert ou fermé, pas un problème
d'architecture.
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ma machine à laver tourne avec un i386EX. Je serai curieux
d'installer un Windows là-dessus...
Le Sun, 26 Sep 2010 13:23:19 +0200,
PP<000pipantal@free.fr000> écrivait :
Le 26/09/2010 03:59, ST a écrit :
On 9/26/10 2:38 AM, pehache-youplaboum wrote:
Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.
Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.
Moi, je parierais sans aucun problème. Du fait de l'architecture,
sur un système identique, un MacOS X ne peut être que plus lent
qu'un Linux ou un NetBSD. Et de fait, j'ai un dual boot sur une
machine et Mac OS X perd haut la main.
Faut-il en conclure que le système x86-x64 est le meilleur système ?
Non. On ne peut pas comparer un noyau monolithique utilisant deux
anneaux (Linux, NetBSD) avec un micro-noyau et sa foultitude de
serveurs. C'est mélanger des torchons et des serviettes puisque le
micro-noyau est handicapé par les changements de contexte. C'est un
peu comme comparer sur un Alphaserver la rapidite d'accès disque
entre un Tru64 des familles et un OpenVMS en évitant de regarder la
couche RMS.
Choix important de processeurs ?
Gamme de prix importante ?
Puissance par puce supérieure ?
Le x86_64 perd là aussi haut la main. Le POWER est largement
supérieur. Le sparc aussi.
Concurrence de fondeur limitée mais non monopolistique
Le fait est qu'aujourd'hui, il n'y a qu'une architecture qui marche pour
un desktop, et même serveur (dans la majorité des cas), le x86 ou l'x64 !
Pourtant, par thread, c'est bien l'US VII FX qui mène la danse. En
terme de puissance par watt, on doit trouver des choses
intéressantes sur les T2+ et les POWER. En tout cas, ce n'est pas
sur les x86 qui ne gagnent qu'en raison de leur coût d'achat.
Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !
Ça dépend ce que tu regardes. Le processeur ne fait pas tout, il y a
l'architecture à regarder de près. En première approximation, un PC
fonctionne bien jusqu'à une charge équivalente au nombre de voies.
Lorsque tu dépasses cette limite, les performances peuvent se casser
la figure assez rapidement. Pour avoir fait des benchs, le temps de
réponse de l'architecture PC n'est pas linéaire en fonction de la
charge alors qu'elle l'est sur POWER et sur Sparc (c'est une
histoire d'interruptions et de bus système avec le goulot
d'étranglement qu'est la gestion de la mémoire. Sans compter que le
bus PCI est une m*rde.). Ce genre de chose compte beaucoup dans le
choix d'un serveur.
Dit autrement, si tu sais par avance que ta machine ne sera pas
chargée ou que tu peux limiter sa charge, un bête PC suffira. Si tu
as une base de données avec 1000 connexions simultanées, la
puissance du x86 à l'intérieur suffira, mais l'architecture ne sera
pas adaptée.
D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.
Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.
Avec la limite de garder des choix idiots. Si un jour le x86 adopte
un format d'instructions fixe, ce qui peut être fait à peu de frais
avec une obligation d'alignement mémoire, la consommation de l'engin
sera réduit de beaucoup. Une bonne partie de la puissance dissipée
par le processeur n'est pas due au fait qu'Intel ne sait pas faire
un processeur, mais par le fait que les choix valables il y a trente
ans ne sont plus pertinents. Il y a trente ans, la mémoire était
chère et il n'était pas idiot d'avoir des codes OP organisés sous la
forme d'un code entropique (avec des histoires de pages et des
instructions de longueurs différentes). Aujourd'hui, la mémoire ne
coûte plus rien et il ne serait pas idiot d'aligner les instructions
les plus courtes sur les plus longues pour éviter toute la logique
interne au processeur et juste destinées à remettre les instructions
au bon format. Intel y a d'ailleurs pensé puisqu'il existe un tel
mode de fonctionnement dans les x86.
Et cet alignement pourrait se faire _sans_ problème de compatibilité
puisque cet alignement peut être fait lors du chargement d'un
binaire ELF en mémoire. Il suffit de le vouloir.
vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)
C'est un autre problème. Il n'y a que très peu de processeurs durcis
pour le spatial.
Je ne sais que penser.
Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !
Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !
C'est un problème de code ouvert ou fermé, pas un problème
d'architecture.
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ma machine à laver tourne avec un i386EX. Je serai curieux
d'installer un Windows là-dessus...
Le Sun, 26 Sep 2010 13:23:19 +0200,
PP écrivait :Le 26/09/2010 03:59, ST a écrit :On 9/26/10 2:38 AM, pehache-youplaboum wrote:Et aussi pour la visibilité. Le i386 occupe un tel marché que les
constructeurs qui veulent l'intégrer ont plus ou moins la garantie que
les efforts de développement qui portent dessus sont importants. C'est
ce qui a motivé Apple à passer du PowerPC au i386.
Et tout pour le meilleur. Les Apples sont vraiment passés du status
d'ordinateur anémique à celui de machines puissantes et rapides avec le
passage à l'i386.
Je ne dis pas qu'ils n'y seraient pas arrivé avec du PPC, mais le fait
est que Linux sur PC était plus rapide que MacOS X sur PPC alors que
maintenant, je parirais pas.
Moi, je parierais sans aucun problème. Du fait de l'architecture,
sur un système identique, un MacOS X ne peut être que plus lent
qu'un Linux ou un NetBSD. Et de fait, j'ai un dual boot sur une
machine et Mac OS X perd haut la main.Faut-il en conclure que le système x86-x64 est le meilleur système ?
Non. On ne peut pas comparer un noyau monolithique utilisant deux
anneaux (Linux, NetBSD) avec un micro-noyau et sa foultitude de
serveurs. C'est mélanger des torchons et des serviettes puisque le
micro-noyau est handicapé par les changements de contexte. C'est un
peu comme comparer sur un Alphaserver la rapidite d'accès disque
entre un Tru64 des familles et un OpenVMS en évitant de regarder la
couche RMS.
Choix important de processeurs ?
Gamme de prix importante ?
Puissance par puce supérieure ?
Le x86_64 perd là aussi haut la main. Le POWER est largement
supérieur. Le sparc aussi.Concurrence de fondeur limitée mais non monopolistique
Le fait est qu'aujourd'hui, il n'y a qu'une architecture qui marche pour
un desktop, et même serveur (dans la majorité des cas), le x86 ou l'x64 !
Pourtant, par thread, c'est bien l'US VII FX qui mène la danse. En
terme de puissance par watt, on doit trouver des choses
intéressantes sur les T2+ et les POWER. En tout cas, ce n'est pas
sur les x86 qui ne gagnent qu'en raison de leur coût d'achat.
Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !
Ça dépend ce que tu regardes. Le processeur ne fait pas tout, il y a
l'architecture à regarder de près. En première approximation, un PC
fonctionne bien jusqu'à une charge équivalente au nombre de voies.
Lorsque tu dépasses cette limite, les performances peuvent se casser
la figure assez rapidement. Pour avoir fait des benchs, le temps de
réponse de l'architecture PC n'est pas linéaire en fonction de la
charge alors qu'elle l'est sur POWER et sur Sparc (c'est une
histoire d'interruptions et de bus système avec le goulot
d'étranglement qu'est la gestion de la mémoire. Sans compter que le
bus PCI est une m*rde.). Ce genre de chose compte beaucoup dans le
choix d'un serveur.
Dit autrement, si tu sais par avance que ta machine ne sera pas
chargée ou que tu peux limiter sa charge, un bête PC suffira. Si tu
as une base de données avec 1000 connexions simultanées, la
puissance du x86 à l'intérieur suffira, mais l'architecture ne sera
pas adaptée.
D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.
Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.
Avec la limite de garder des choix idiots. Si un jour le x86 adopte
un format d'instructions fixe, ce qui peut être fait à peu de frais
avec une obligation d'alignement mémoire, la consommation de l'engin
sera réduit de beaucoup. Une bonne partie de la puissance dissipée
par le processeur n'est pas due au fait qu'Intel ne sait pas faire
un processeur, mais par le fait que les choix valables il y a trente
ans ne sont plus pertinents. Il y a trente ans, la mémoire était
chère et il n'était pas idiot d'avoir des codes OP organisés sous la
forme d'un code entropique (avec des histoires de pages et des
instructions de longueurs différentes). Aujourd'hui, la mémoire ne
coûte plus rien et il ne serait pas idiot d'aligner les instructions
les plus courtes sur les plus longues pour éviter toute la logique
interne au processeur et juste destinées à remettre les instructions
au bon format. Intel y a d'ailleurs pensé puisqu'il existe un tel
mode de fonctionnement dans les x86.
Et cet alignement pourrait se faire _sans_ problème de compatibilité
puisque cet alignement peut être fait lors du chargement d'un
binaire ELF en mémoire. Il suffit de le vouloir.
vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)
C'est un autre problème. Il n'y a que très peu de processeurs durcis
pour le spatial.Je ne sais que penser.
Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !
Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !
C'est un problème de code ouvert ou fermé, pas un problème
d'architecture.
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ma machine à laver tourne avec un i386EX. Je serai curieux
d'installer un Windows là-dessus...
Pourtant, par thread, c'est bien l'US VII FX qui mène la danse. En
terme de puissance par watt, on doit trouver des choses
intéressantes sur les T2+ et les POWER. En tout cas, ce n'est pas
sur les x86 qui ne gagnent qu'en raison de leur coût d'achat.
Donc Mips/W US et POWER gagne, mais Mips/€ c'est l'x86 ou plutôt l'x64 !
Mais au final, le vainqueur c'est qui ?
Pour l'utilisateur lambda ?
Pour le serveur ?
Pour le producteur de boule quies ?
Pour le producteur d'électricité ?
Etc ?Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !
Ça dépend ce que tu regardes. Le processeur ne fait pas tout, il y a
l'architecture à regarder de près. En première approximation, un PC
fonctionne bien jusqu'à une charge équivalente au nombre de voies.
Lorsque tu dépasses cette limite, les performances peuvent se casser
la figure assez rapidement. Pour avoir fait des benchs, le temps de
réponse de l'architecture PC n'est pas linéaire en fonction de la
charge alors qu'elle l'est sur POWER et sur Sparc (c'est une
histoire d'interruptions et de bus système avec le goulot
d'étranglement qu'est la gestion de la mémoire. Sans compter que le
bus PCI est une m*rde.). Ce genre de chose compte beaucoup dans le
choix d'un serveur.
Si cela se traduit, par le fait que par moment mon PC ne répond
quasiment plus à rien, parce qu'il a les application dans tous les sens,
avec base de donnée entre-autre ouverte (pas la meilleure), etc. en mode
Windows, je suis d'accord.
Mais bon, le PCI n'est pas une obligation de l'x86, il suffit d'avoir le
chipset qui gère un autre type de bus, comme les SCSI-family ou autre
bus de périphérique par exemple, et ce défaut se règle non ?
Dit autrement, si tu sais par avance que ta machine ne sera pas
chargée ou que tu peux limiter sa charge, un bête PC suffira. Si tu
as une base de données avec 1000 connexions simultanées, la
puissance du x86 à l'intérieur suffira, mais l'architecture ne sera
pas adaptée.
Enfin bon, le consommateur aujourd'hui n'a plus de choix.
Pour une station de travail, c'est x86, et personne n'arrive à présenter
une alternative, et dès lors qu'on veut plus de puissance, on nous pond
un truc, plus puissant.
J'ai l'impression, que les autres architectures POWER ou US, était
capable de fournir des puissances qui ne sont pas dépassées aujourd'hui,
mais qui à l'époque ne correspondant pas à la demande, se sont tirés une
balle dans le pied pour la commercialisation en masse.
La puissance de l'x86 est aussi peut-être de fabriquer ce que le
consommateur attend, ou tout du moins ce qu'on lui fait attendre.
On consomme tout de suite, dans 3 ans, de tout façon je change ! Et
c'est pas cher.
D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.
Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.
Avec la limite de garder des choix idiots. Si un jour le x86 adopte
un format d'instructions fixe, ce qui peut être fait à peu de frais
avec une obligation d'alignement mémoire, la consommation de l'engin
sera réduit de beaucoup. Une bonne partie de la puissance dissipée
par le processeur n'est pas due au fait qu'Intel ne sait pas faire
un processeur, mais par le fait que les choix valables il y a trente
ans ne sont plus pertinents. Il y a trente ans, la mémoire était
chère et il n'était pas idiot d'avoir des codes OP organisés sous la
forme d'un code entropique (avec des histoires de pages et des
instructions de longueurs différentes). Aujourd'hui, la mémoire ne
coûte plus rien et il ne serait pas idiot d'aligner les instructions
les plus courtes sur les plus longues pour éviter toute la logique
interne au processeur et juste destinées à remettre les instructions
au bon format. Intel y a d'ailleurs pensé puisqu'il existe un tel
mode de fonctionnement dans les x86.
C'est intéressant ce que tu dis.
En gros, l'x86, a donc encore la possibilité de gagner sur les tableaux
de la consommation en généralisant l'alignement des instructions ?
En gros, facilement aussi, Intel pourrait au niveau exécution améliorer
le parallelisme d'exécution et devait multiscalaire à l'image des sparc ?
Et cet alignement pourrait se faire _sans_ problème de compatibilité
puisque cet alignement peut être fait lors du chargement d'un
binaire ELF en mémoire. Il suffit de le vouloir.
Cad, une option de compilation simplement ?
vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)
C'est un autre problème. Il n'y a que très peu de processeurs durcis
pour le spatial.Je ne sais que penser.
Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !
Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !
C'est un problème de code ouvert ou fermé, pas un problème
d'architecture.
oui, mais s'il est difficile (de moins en moins d'ailleurs) d'avoir un
périphérique ayant un pilote sous Linux développé sous x86, je ne parle
même pas d'ARM, POWER, SPARC ou autre MIPS, etc.
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ma machine à laver tourne avec un i386EX. Je serai curieux
d'installer un Windows là-dessus...
Mais un petit Windows adapté ? ça doit pas être compliqué !!!!!
Pourtant, par thread, c'est bien l'US VII FX qui mène la danse. En
terme de puissance par watt, on doit trouver des choses
intéressantes sur les T2+ et les POWER. En tout cas, ce n'est pas
sur les x86 qui ne gagnent qu'en raison de leur coût d'achat.
Donc Mips/W US et POWER gagne, mais Mips/€ c'est l'x86 ou plutôt l'x64 !
Mais au final, le vainqueur c'est qui ?
Pour l'utilisateur lambda ?
Pour le serveur ?
Pour le producteur de boule quies ?
Pour le producteur d'électricité ?
Etc ?
Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !
Ça dépend ce que tu regardes. Le processeur ne fait pas tout, il y a
l'architecture à regarder de près. En première approximation, un PC
fonctionne bien jusqu'à une charge équivalente au nombre de voies.
Lorsque tu dépasses cette limite, les performances peuvent se casser
la figure assez rapidement. Pour avoir fait des benchs, le temps de
réponse de l'architecture PC n'est pas linéaire en fonction de la
charge alors qu'elle l'est sur POWER et sur Sparc (c'est une
histoire d'interruptions et de bus système avec le goulot
d'étranglement qu'est la gestion de la mémoire. Sans compter que le
bus PCI est une m*rde.). Ce genre de chose compte beaucoup dans le
choix d'un serveur.
Si cela se traduit, par le fait que par moment mon PC ne répond
quasiment plus à rien, parce qu'il a les application dans tous les sens,
avec base de donnée entre-autre ouverte (pas la meilleure), etc. en mode
Windows, je suis d'accord.
Mais bon, le PCI n'est pas une obligation de l'x86, il suffit d'avoir le
chipset qui gère un autre type de bus, comme les SCSI-family ou autre
bus de périphérique par exemple, et ce défaut se règle non ?
Dit autrement, si tu sais par avance que ta machine ne sera pas
chargée ou que tu peux limiter sa charge, un bête PC suffira. Si tu
as une base de données avec 1000 connexions simultanées, la
puissance du x86 à l'intérieur suffira, mais l'architecture ne sera
pas adaptée.
Enfin bon, le consommateur aujourd'hui n'a plus de choix.
Pour une station de travail, c'est x86, et personne n'arrive à présenter
une alternative, et dès lors qu'on veut plus de puissance, on nous pond
un truc, plus puissant.
J'ai l'impression, que les autres architectures POWER ou US, était
capable de fournir des puissances qui ne sont pas dépassées aujourd'hui,
mais qui à l'époque ne correspondant pas à la demande, se sont tirés une
balle dans le pied pour la commercialisation en masse.
La puissance de l'x86 est aussi peut-être de fabriquer ce que le
consommateur attend, ou tout du moins ce qu'on lui fait attendre.
On consomme tout de suite, dans 3 ans, de tout façon je change ! Et
c'est pas cher.
D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.
Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.
Avec la limite de garder des choix idiots. Si un jour le x86 adopte
un format d'instructions fixe, ce qui peut être fait à peu de frais
avec une obligation d'alignement mémoire, la consommation de l'engin
sera réduit de beaucoup. Une bonne partie de la puissance dissipée
par le processeur n'est pas due au fait qu'Intel ne sait pas faire
un processeur, mais par le fait que les choix valables il y a trente
ans ne sont plus pertinents. Il y a trente ans, la mémoire était
chère et il n'était pas idiot d'avoir des codes OP organisés sous la
forme d'un code entropique (avec des histoires de pages et des
instructions de longueurs différentes). Aujourd'hui, la mémoire ne
coûte plus rien et il ne serait pas idiot d'aligner les instructions
les plus courtes sur les plus longues pour éviter toute la logique
interne au processeur et juste destinées à remettre les instructions
au bon format. Intel y a d'ailleurs pensé puisqu'il existe un tel
mode de fonctionnement dans les x86.
C'est intéressant ce que tu dis.
En gros, l'x86, a donc encore la possibilité de gagner sur les tableaux
de la consommation en généralisant l'alignement des instructions ?
En gros, facilement aussi, Intel pourrait au niveau exécution améliorer
le parallelisme d'exécution et devait multiscalaire à l'image des sparc ?
Et cet alignement pourrait se faire _sans_ problème de compatibilité
puisque cet alignement peut être fait lors du chargement d'un
binaire ELF en mémoire. Il suffit de le vouloir.
Cad, une option de compilation simplement ?
vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)
C'est un autre problème. Il n'y a que très peu de processeurs durcis
pour le spatial.
Je ne sais que penser.
Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !
Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !
C'est un problème de code ouvert ou fermé, pas un problème
d'architecture.
oui, mais s'il est difficile (de moins en moins d'ailleurs) d'avoir un
périphérique ayant un pilote sous Linux développé sous x86, je ne parle
même pas d'ARM, POWER, SPARC ou autre MIPS, etc.
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ma machine à laver tourne avec un i386EX. Je serai curieux
d'installer un Windows là-dessus...
Mais un petit Windows adapté ? ça doit pas être compliqué !!!!!
Pourtant, par thread, c'est bien l'US VII FX qui mène la danse. En
terme de puissance par watt, on doit trouver des choses
intéressantes sur les T2+ et les POWER. En tout cas, ce n'est pas
sur les x86 qui ne gagnent qu'en raison de leur coût d'achat.
Donc Mips/W US et POWER gagne, mais Mips/€ c'est l'x86 ou plutôt l'x64 !
Mais au final, le vainqueur c'est qui ?
Pour l'utilisateur lambda ?
Pour le serveur ?
Pour le producteur de boule quies ?
Pour le producteur d'électricité ?
Etc ?Si sur la pratique nous avons des ordinateurs puissants pour pas cher,
je reste frustré par le quasimonopole d'une seule technologie !
Ça dépend ce que tu regardes. Le processeur ne fait pas tout, il y a
l'architecture à regarder de près. En première approximation, un PC
fonctionne bien jusqu'à une charge équivalente au nombre de voies.
Lorsque tu dépasses cette limite, les performances peuvent se casser
la figure assez rapidement. Pour avoir fait des benchs, le temps de
réponse de l'architecture PC n'est pas linéaire en fonction de la
charge alors qu'elle l'est sur POWER et sur Sparc (c'est une
histoire d'interruptions et de bus système avec le goulot
d'étranglement qu'est la gestion de la mémoire. Sans compter que le
bus PCI est une m*rde.). Ce genre de chose compte beaucoup dans le
choix d'un serveur.
Si cela se traduit, par le fait que par moment mon PC ne répond
quasiment plus à rien, parce qu'il a les application dans tous les sens,
avec base de donnée entre-autre ouverte (pas la meilleure), etc. en mode
Windows, je suis d'accord.
Mais bon, le PCI n'est pas une obligation de l'x86, il suffit d'avoir le
chipset qui gère un autre type de bus, comme les SCSI-family ou autre
bus de périphérique par exemple, et ce défaut se règle non ?
Dit autrement, si tu sais par avance que ta machine ne sera pas
chargée ou que tu peux limiter sa charge, un bête PC suffira. Si tu
as une base de données avec 1000 connexions simultanées, la
puissance du x86 à l'intérieur suffira, mais l'architecture ne sera
pas adaptée.
Enfin bon, le consommateur aujourd'hui n'a plus de choix.
Pour une station de travail, c'est x86, et personne n'arrive à présenter
une alternative, et dès lors qu'on veut plus de puissance, on nous pond
un truc, plus puissant.
J'ai l'impression, que les autres architectures POWER ou US, était
capable de fournir des puissances qui ne sont pas dépassées aujourd'hui,
mais qui à l'époque ne correspondant pas à la demande, se sont tirés une
balle dans le pied pour la commercialisation en masse.
La puissance de l'x86 est aussi peut-être de fabriquer ce que le
consommateur attend, ou tout du moins ce qu'on lui fait attendre.
On consomme tout de suite, dans 3 ans, de tout façon je change ! Et
c'est pas cher.
D'avoir
des processeurs qui sont des gouffres energétiques qui nécessitent de
fait des refroidissements actifs donc bruyant et réduisant l'autonomie
et augmentant le poids de nos portables.
Une chose qu'on ne peut reprocher à Intel, c'est que malgré sa position,
il continue à investir vraiment massivement, et améliore en continue
leur technologie au point de devenir vraiment concurrentielle avec les
autres qui proposent une technologie spécifique.
Avec la limite de garder des choix idiots. Si un jour le x86 adopte
un format d'instructions fixe, ce qui peut être fait à peu de frais
avec une obligation d'alignement mémoire, la consommation de l'engin
sera réduit de beaucoup. Une bonne partie de la puissance dissipée
par le processeur n'est pas due au fait qu'Intel ne sait pas faire
un processeur, mais par le fait que les choix valables il y a trente
ans ne sont plus pertinents. Il y a trente ans, la mémoire était
chère et il n'était pas idiot d'avoir des codes OP organisés sous la
forme d'un code entropique (avec des histoires de pages et des
instructions de longueurs différentes). Aujourd'hui, la mémoire ne
coûte plus rien et il ne serait pas idiot d'aligner les instructions
les plus courtes sur les plus longues pour éviter toute la logique
interne au processeur et juste destinées à remettre les instructions
au bon format. Intel y a d'ailleurs pensé puisqu'il existe un tel
mode de fonctionnement dans les x86.
C'est intéressant ce que tu dis.
En gros, l'x86, a donc encore la possibilité de gagner sur les tableaux
de la consommation en généralisant l'alignement des instructions ?
En gros, facilement aussi, Intel pourrait au niveau exécution améliorer
le parallelisme d'exécution et devait multiscalaire à l'image des sparc ?
Et cet alignement pourrait se faire _sans_ problème de compatibilité
puisque cet alignement peut être fait lors du chargement d'un
binaire ELF en mémoire. Il suffit de le vouloir.
Cad, une option de compilation simplement ?
vite fait de mémoire, le Pathfinder sur Mars, qui tournait de mémoire à
base d'une processeur Intel prévu pour 15 jours-1 mois, et qui
finalement marche encore (ou bien marchait encore au moment ou on l'a
arrêté !)
C'est un autre problème. Il n'y a que très peu de processeurs durcis
pour le spatial.Je ne sais que penser.
Quoiqu'il en soit, si toutes les applications tournent sur tout type de
machine, c'est plus simple, on ne pose pas de question sur le logithèque !
Mais est-ce bon pour Linux ?
Parce que le gain potentiel, c'est par exemple d'avoir Linux qui tourne
sur tout ! Les drivers développés par les constructeurs de matériel
tourne au moins sur tous les ordinateurs. Je pense notament à mon
imprimante scanner qui tourne parfaitement sous Linux avec les drivers
Lexmark, et qui ne fonctionnerait plus sur un Linux PPC, ARM, Sparc ou
bien Mips, car pas de drivers autre que Lexmark pour !
C'est un problème de code ouvert ou fermé, pas un problème
d'architecture.
oui, mais s'il est difficile (de moins en moins d'ailleurs) d'avoir un
périphérique ayant un pilote sous Linux développé sous x86, je ne parle
même pas d'ARM, POWER, SPARC ou autre MIPS, etc.
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ma machine à laver tourne avec un i386EX. Je serai curieux
d'installer un Windows là-dessus...
Mais un petit Windows adapté ? ça doit pas être compliqué !!!!!
purge de caches... mais toujours pas de coprocesseur arithmétique, donc
restant un jouet pour geeks.
purge de caches... mais toujours pas de coprocesseur arithmétique, donc
restant un jouet pour geeks.
purge de caches... mais toujours pas de coprocesseur arithmétique, donc
restant un jouet pour geeks.
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ce dernier point étant également valable pour les concurrents de MS.
Oui mais avec 90% de part de marché, le jeu n'est-il pas déjà joué ?
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ce dernier point étant également valable pour les concurrents de MS.
Oui mais avec 90% de part de marché, le jeu n'est-il pas déjà joué ?
Par contre, c'est peut-être la possibilité pour Microsoft, de
s'installer vraiment partout, justement par trop de simplicité et de
portabilité sur des matériels finalement tous pareils !
Ce dernier point étant également valable pour les concurrents de MS.
Oui mais avec 90% de part de marché, le jeu n'est-il pas déjà joué ?
Et finalement, si l'on regardait le résultat ?
Et finalement, si l'on regardait le résultat ?
Et finalement, si l'on regardait le résultat ?