Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

les versions de vista: limitations à la con

120 réponses
Avatar
Rakotomandimby (R12y) Mihamina
Bonjour,
Lu ici (apres suivi d'un lien donné par MELMOTH sur fr.comp.os.ms-windows):
http://www.01net.com/editorial/380253/windows-seven-10-pistes-a-suivre-par-microsoft-pour-effacer-l-echec-vista/?di=2&play=0#debutDiaporama
" A titre d'exemple, Windows Vista en 32 bits ne supporte en théorie que
4 Go de RAM, légèrement plus de 3 Go dans les faits. Sa version 64 bits
peut utiliser 8 Go pour l'édition Basic, 16 Go pour la Premium à plus de
128 Go de RAM pour les éditions Intégral, Professionnel et Entreprise."

Ils veulent en venir ou avec ces limitation à la con?

Attention: Suivi là ou il faut.

PS: qui veut lancer les paris (sur Usenet) sur l'année de sortie
publique du successeur de Vista?

10 réponses

Avatar
Professeur M

Il en faut pas oublier que les Unix proprios (et OS proprios autres
que Microsoft) sont sur des niches et résistent plutôt pas mal.


et pick ?

--
C'est parce que la lumière est plus rapide que le son que certains
ont l'air brillants avant d'avoir l'air con

Avatar
JKB
Le 31-05-2008, à propos de
Re: les versions de vista: limitations à la con,
Kevin Denis écrivait dans fr.comp.os.linux.debats :
On 2008-05-31, JKB wrote:
Sans la motivation de faire chier Microsoft, les grands fabriquants de
machines Unix, IBM, SGI, etc... n'auraient jamais implémentées leurs
technologies (développées initialement pour leur Unix proprios) dans
Linux.

Linux taille des parts de marché aux unix proprios. Et la réaction de

ces unix proprios serait de donner à linux leurs technos? Tout ça
dans le but de faire chier Microsoft??
J'ai du mal à le croire.


Il en faut pas oublier que les Unix proprios (et OS proprios autres
que Microsoft) sont sur des niches et résistent plutôt pas mal. Ce


C'est tout de même curieux, j'ai toujours entendu l'inverse. Mis à part
quelques niches, c'est la débandade. Entre installer un apache sur HP-UX
ou linux pour servir les pages web de n'importe quel boite, le choix est
vite fait.


On est bien d'accord. Sauf que pour servir un site web, tu prends un
PC de base, pas un K9000 ou un serveur Integrity. Tu ne prendras pas
non plus un T2000 chez Sun.

La vraie question n'est pas la puissance de calcul, mais la
parallélisation des calculs. Dan certains cas, tu as intérêt à
prendre un truc de base qui pédale vite style serveur PC, dans
d'autres, un bidule à 32 voies qui mouline moins vite par voie, mais
au final, tu es gagnant. J'ai des benchs assez amusants avec des
bases MySQL et PostgreSQL/PostGIS sur i386, amd64, sparc64 et alpha
et les résultats sont assez surprenant des que la charge augmente
(OS : Linux, NetBSD et Solaris/VMS pour les architectures qui
supportent).

Bref, à chaque application correspond un type de hard, sauf si on
trouve assez commode d'enfoncer des vis avec des marteaux parce
qu'on n'a jamais vu un tournevis.

n'est pas demain la veille qu'on va virer un cluster bancaire
OpenVMS pour le remplacer par du Linux. VMS ne fait pas de pub et
pèse toujours aussi lourd, Solaris aussi. HP-UX et Tru64 sont voués
à l'échec plus par politique commerciale d'HP que du fait des OS
eux-mêmes. AIX a une base installée importante et il ne viendrait à
l'idée de personne de migrer un Power5 d'IBM sous Linux lorsqu'on
voit le support de Linux pour un truc aussi courant que Sparc64.


L'autre raison qui fait que ces unix résistent, il ne faut pas se
voiler la face, ce sont les contrats de service. J'ai souvent entendu
que la différence n'était pas technique, mais contractuelle.


C'est un fait, mais il n'y a pas que ça. Ça fait pas mal de temps
que je bosse sur des gros systèmes et on peut dire ce qu'on veut, la
qualité d'un serveur Integrity chez HP (successeurs des Alpha... RIP
:-( ) ou d'un système Power chez IBM, voir des systèmes Sun sont
largement au-dessus de ce qui est fait en règle générale dans le
monde du PC (sauf à y mettre le prix). Si on investit dans ce
matériel parce qu'on a une bonne raison, on prend généralement l'OS
optimisé sur ce matériel.

Quand je parle de qualité, je parle avant tout de taux de panne et
de fiabilité à long terme.

Bref, Linux sur serveur de type PC, oui, mais sur les autres
architectures, ça tourne peut-être, mais c'est un peu donner de la
confiture à un cochon.

Il ne faut pas voiler la face. Linux est aujourd'hui utilisable sur
i386 et amd64. Sous ppc32 et 64, il ne faut pas rater la bonne
version du noyau (enfin, une qui boote) et de la libc.


Aucun problème sur mon ibook PPC. Mais ça n'est pas un serveur.


Heureux homme. J'ai un iMac qui me fait des misères. Si on prend une
distribution, ça va à peu près, mais il ne faut surtout pas prendre
un noyau du dépôt officiel sous peine de ne même pas booter.

Sparc32 (y
compris les sparc32 modernes comme leon) est mort, Sparc64 est
sportif à utiliser (en raison de problèmes d'alignement mémoire qui
font des bus errors à répétition). Ce n'est pas pour rien que très
peu d'architectures sont supportées par les éditeurs !...


Si on parle CPU, j'ajouterai MIPS. Actuellement je travaille sur de
l'octeon cavium. Ca tourne plutôt pas mal. Certes, ça n'est pas du
serveur, mais ça marche. De plus, je lisais que de plus en plus de
PC ultraportable, porté par la vague du EEEPC, vendent des machines
sous linux. Comme le x86 est trop cher et/ou consomme trop, ils
mettent d'autres types de CPU. Et microsoft fait la gueule, là, par
contre...


C'est un Celeron de mémoire (et underclocké). Ils auraient au moins
pu mettre un truc qui consomme moins style Geode.

Il faut aussi rajouter que le support du matériel ailleurs que sur
PC est assez aléatoire (sondes de températures qui ne fonctionnent
pas, cartes graphiques dont les pilotes sont assez plantogènes sous
Alpha...).

La tendance aujourd'hui est plutôt d'utiliser Linux comme un produit
d'appel et de dire aux gens : "vous avez essayé un truc que vous
connaissez, venez maintenant essayer notre propre système optimisé
pour le matériel que vous venez d'acheter".

Ca, ca m'étonne encore plus, surtout avec les lignes qui précèdent.

Tu dis que des constructeurs vendent des stations sans OS
alors que le support de linux est balbutiant et aléatoire. Au final,
l'acheteur n'aura eu que des galères pour ce matos, avec
beaucoup d'ennuis.


Sun : vous utilisez Linux sur sparc à vos risques et périls, nous on
ne fait pas. Par contre, on vous fournit Solaris gratuitement. Vous
en avez même une version open source.

IBM : viendez acheter nous pSeries avec processeur power et utiliser
notre toute belle version de linux. Vous ne pourrez pas tout
utiliser de ces belle machines, mais vous pourrez toujours utiliser
notre tout beau AIX qui à le goût, l'odeur de linux, mais ce n'est
pas un linux, c'est mieux (discours entendu il y a quinze jours par
un commercial d'IBM... Oui, je suis encore dans mes benchs...).

HP : idem qu'IBM.

Et là, le vendeur viendrait la bouche en coeur en
disant: regardez on a un bel OS, tout propre, qui marche.
Je ne suis pas commercial, mais en tant que client, vraiment, j'aurais
du mal a saisir la stratégie.


Je ne sais pas si tu as déjà eu un Integrity dans les mains. Tu
exloites vaguement la machine avec un Linux. Tant que tu restes sur
une debian stable ou prétendue telle, ça fonctionne. Le reste est
aléatoire. Tu n'as aucun report d'activité de la machine ni aucune
alarme (idem pour les sparcs). Bref, il ne faut pas réfléchir
longtemps pour faire son choix. Sauf qu'on n'attrape pas les mouches
avec du vinaigre. Si le commercial d'HP attaque brutalement le
client qui ne connaît rien d'autre que Linux avec Tru64 sur
integrity, le client va voir Dell et acheter de la merde en branche
(j'ai encore reçu hier un dépliant avec des serveurs commençant à
579 euros HT...). Par contre, s'il peut avoir une machine dans un
coin avec un OS qu'il connaît, la discussion est toute autre.

Un autre point est à garder en mémoire : tous ces constructeurs font
de l'argent sur le matériel et les softs annexes, plus sur l'OS
lui-même. Je viens de demander un devis à HP pour un Integrity
d'entrée de gamme et, avec la licence OpenVMS, j'arrive à un peu
plus de 5000 euros pour un _vrai_ serveur. Par contre, si je
commence à demander les licences pour les outils cluster, c'est tout
à fait autre chose et ces constructeurs font aujourd'hui leur valeur
ajoutée sur de telles choses.

Cordialement,

JKB

--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.




Avatar
JKB
Le 31-05-2008, à propos de
Re: les versions de vista: limitations à la con,
Professeur Méphisto écrivait dans fr.comp.os.linux.debats :

Il en faut pas oublier que les Unix proprios (et OS proprios autres
que Microsoft) sont sur des niches et résistent plutôt pas mal.


et pick ?


C'est comme MultideskOS.

JKB

--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.


Avatar
pehache-tolai
"Thierry B." a écrit dans le message de news:


Certes, mais tu rajoutes le buffer d'affichage, une copie de travail,
la pile des undos, le moindre début de calque, et ça montre très
rapidement. Là, en ce moment, j'ai une image 6000x4500 chargée
dans Gimp avec juste deux calques: fichier d'échange 650Mo et
occupation mémoire ~280Mo.


Oui, et donc avec 2Go de mémoire tu as encore une sacré marge pour
travailler... Et c'est une grosse image...


--
pehache
http://pehache.free.fr/public.html

Avatar
pehache-tolai
"Kevin Denis" a écrit dans le message de news:

On 2008-05-30, pehache-tolai wrote:
Alors là certainement pas.

Sans la motivation de faire chier Microsoft, les grands fabriquants
de machines Unix, IBM, SGI, etc... n'auraient jamais implémentées
leurs technologies (développées initialement pour leur Unix
proprios) dans Linux.

Linux taille des parts de marché aux unix proprios. Et la réaction de

ces unix proprios serait de donner à linux leurs technos? Tout ça
dans le but de faire chier Microsoft??
J'ai du mal à le croire.


Ah ben pourtant :-)... C'est de la stratégie militaire à ce niveau-là :-).

De toutes façons, sur les applications "courantes", Linux a déjà évincé les
unix proprios. Donc du point de vue d'IBM (par exemple), il n'est pas si
idiot que ça d'armer Linux pour marcher sur les plate-bandes de MS. Ca
permet de maintenir à distance un éventuel concurrent...

Et puis il y a le cas SGI, un peu différent, qui a carrément laissé tomber
son unix (IRIX) pour mettre Linux sur ses machines.

--
pehache
http://pehache.free.fr/public.html


Avatar
Stéphan Peccini
Sur fr.comp.os.linux.debats, pehache-tolai s'est exprimé ainsi :

"Thierry B." a écrit dans le message de news:


Certes, mais tu rajoutes le buffer d'affichage, une copie de travail,
la pile des undos, le moindre début de calque, et ça montre très
rapidement. Là, en ce moment, j'ai une image 6000x4500 chargée
dans Gimp avec juste deux calques: fichier d'échange 650Mo et
occupation mémoire ~280Mo.


Oui, et donc avec 2Go de mémoire tu as encore une sacré marge pour
travailler... Et c'est une grosse image...


Non, ce n'est pas une grosse image :
- diapo 6x9 scannée en 4000 dpi : 13000x8500
- cinepaint avec 2 calques : 2.5 Go
- gimp avec 2 calques : 1.7 Go
- les deux sans avoir fait la moindre manipulation à part la duplication du
calque

Panorama avec 4 diapos sous hugin : 5.5 Go.

Avec 8Go, je swappe régulièrement.

--
Stéphan Peccini
Les photos : <URL:http://photonature.fr>
Les Pyrénées : <URL:http://photonature.fr/pyrenees>
Le blog : <URL:http://pyrenees.peccini.fr>


Avatar
Thierry B.
--{ pehache-tolai a plopé ceci: }--

Certes, mais tu rajoutes le buffer d'affichage, une copie de travail,
la pile des undos, le moindre début de calque, et ça montre très
rapidement. Là, en ce moment, j'ai une image 6000x4500 chargée
dans Gimp avec juste deux calques: fichier d'échange 650Mo et
occupation mémoire ~280Mo.


Oui, et donc avec 2Go de mémoire tu as encore une sacré marge pour
travailler... Et c'est une grosse image...


Pas forcément. J'ai déja fait du 12000x9000, et là, ça commence
quand même à prendre de la place. Gimp semble bien se débrouiller
avec son fichier d'échange, mais d'autres logiciels chargent
tout en mémoire...


--
Oups...


Avatar
pehache-tolai
"Stéphan Peccini" a écrit dans le message de
news: g1tep5$r1h$
Sur fr.comp.os.linux.debats, pehache-tolai s'est exprimé ainsi :

"Thierry B." a écrit dans le message de
news:

Certes, mais tu rajoutes le buffer d'affichage, une copie de
travail, la pile des undos, le moindre début de calque, et ça
montre très rapidement. Là, en ce moment, j'ai une image 6000x4500
chargée dans Gimp avec juste deux calques: fichier d'échange 650Mo
et occupation mémoire ~280Mo.


Oui, et donc avec 2Go de mémoire tu as encore une sacré marge pour
travailler... Et c'est une grosse image...


Non, ce n'est pas une grosse image :
- diapo 6x9 scannée en 4000 dpi : 13000x8500
- cinepaint avec 2 calques : 2.5 Go
- gimp avec 2 calques : 1.7 Go
- les deux sans avoir fait la moindre manipulation à part la
duplication du calque

Panorama avec 4 diapos sous hugin : 5.5 Go.

Avec 8Go, je swappe régulièrement.


C'est bon, on sait que t'as la plus grosse...

--
pehache
http://pehache.free.fr/public.html



Avatar
pehache-tolai
"Thierry B." a écrit dans le message de news:

--{ pehache-tolai a plopé ceci: }--

Certes, mais tu rajoutes le buffer d'affichage, une copie de
travail, la pile des undos, le moindre début de calque, et ça
montre très rapidement. Là, en ce moment, j'ai une image 6000x4500
chargée dans Gimp avec juste deux calques: fichier d'échange 650Mo
et occupation mémoire ~280Mo.


Oui, et donc avec 2Go de mémoire tu as encore une sacré marge pour
travailler... Et c'est une grosse image...


Pas forcément. J'ai déja fait du 12000x9000, et là, ça commence
quand même à prendre de la place.


Evidemment il n'y a pas de limite. Pour des besoins *très* particuliers, il
peut falloir 4, 8, 16, 32 Go... On peut tout imaginer.

Mais je rappelle le passage qui a déclenché cette discussion: "Typiquement,
dès qu'on se lance dans la retouche et le développement des fichiers RAW des
appareils modernes, 2Go est un strict minimum, et 4 voire 8Go sont vivement
recommandés"

Considérant que les reflex modernes "prosumers" tournent autour de 12MPix,
et qu'en haut de l'échelle dans les appareils pros on tourne à 20Mpix, je
dis que 2Go pour traiter ça, c'est confortable. Bien sûr si on a plus, on
pourra toujours ouvrir plus d'images à la fois, avoir plus d'historique,
etc... Mais avec 1Go pour traiter des images de 10Mpix je ne me suis jamais
senti à l'étroit.

--
pehache
http://pehache.free.fr/public.html



Avatar
Stéphan Peccini
Sur fr.comp.os.linux.debats, pehache-tolai s'est exprimé ainsi :

"Stéphan Peccini" a écrit dans le message de
news: g1tep5$r1h$

Non, ce n'est pas une grosse image :
Panorama avec 4 diapos sous hugin : 5.5 Go.


C'est bon, on sait que t'as la plus grosse...


Tu n'as jamais fait de panoramas ? Des images comme la mienne sont courantes
en assemblant des photos ; des assemblages de 20 photos sont légion et à
partir de 10 Mpixels, tu vois où cela mène. Mais bon, tu ne sais pas avoir
tort.

--
Stéphan Peccini
Les photos : <URL:http://photonature.fr>
Les Pyrénées : <URL:http://photonature.fr/pyrenees>
Le blog : <URL:http://pyrenees.peccini.fr>