Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

La surprise de W7 que l'on attendit pas...

152 réponses
Avatar
Ricolla
Comme chaqun peut le constater, W7 consome moitié moins de RAM pour des
performances supérieurs

Ce miracle est dû à MinWin, le nouveau kernel en chantier depuis Vista,
qui équipe déjà Windows 2008

MinWin a permis de défaire les imbrications créées au fil des ans par
les développeurs de MS, permettant maintenant de supprimer
selectivement les composants fondamentaux du système

Selon OSNEWS, ce qui est intéressant, c'est que les entrées / sorties
de MinWin ont été concues selon un model UNIX qui semblerait fortement
identique à BSD, et le site va même plus loin, en pensant qu'il s'agit
probablement d'une reprise complète du noyau BSD, ce qui expliquerait
la rapidité de sortie de W7, à peine 2 ans après Vista

Surprise surprise: Il s'agit donc bien d'un moteur de type Linux qui
équipe les entrailles de Windows 7

Je pense que W7 est un Linux meileur que Linux

10 réponses

Avatar
debug this fifo
Jerome Lambert wrote:

Euh, le futur qu'on nous trace, c'est des abominations comme un paiement
à l'utilisation et non à la licence, une externalisation des données
toujours bien sympa pour le respect de la vie privée, un flicage de plus
en plus poussé, etc. Bel avenir, en somme... :-(



non, ça c'est le futur vu par les marketeux et/ou les gouvernants.
Avatar
Kevin Denis
Le 10-03-2009, JKB a écrit :
Heu ! Je parlais d'une fonctionnalité «intéressante». Il n'y a
rien de «nécessaire» ni d'obligatoire. Mais bon, libre à toi
d'en penser ce que tu veux. Moi, ce que j'en dis...



Je ne suis pas arc-bouté sur une position. J'ai essayé la
virtualisation parce que je fais un peu de veille technologique. Ça
n'apporte généralement rien (sauf du boulot à des SSII, mais c'est un
autre débat).



La consommation EdF.
Les tests et validations.
Le montage de maquettes rapidement.
Des PRA facilités.
Le problème de l'explosion des x86 dans les datacenters.
La fonctionnalité snapshot au niveau de l'OS.
Développer pour un CPU depuis un autre (j'ai testé des environnements
multipro 64 bits sur un monopro 32bits, par exemple).

A part ça, ça n'apporte rien. Tu n'as pas a changer ta position.
--
Kevin
Avatar
JKB
Le 10-03-2009, ? propos de
Re: La surprise de W7 que l'on attendit pas...,
Kevin Denis ?crivait dans fr.comp.os.linux.debats :
Le 10-03-2009, JKB a écrit :
Heu ! Je parlais d'une fonctionnalité «intéressante». Il n'y a
rien de «nécessaire» ni d'obligatoire. Mais bon, libre à toi
d'en penser ce que tu veux. Moi, ce que j'en dis...



Je ne suis pas arc-bouté sur une position. J'ai essayé la
virtualisation parce que je fais un peu de veille technologique. Ça
n'apporte généralement rien (sauf du boulot à des SSII, mais c'est un
autre débat).



La consommation EdF.



Tu vires les x86 et tu réduis ta consommation de beaucoup.
D'ailleurs, j'ai fait une étude il y a deux ans sur ce que coûtait la
virtualisation en terme de consommation électrique et de performance.
C'est assez édifiant. La virtualisation coûte d'autant plus chère (par
rapport à une autre solution de performances équivalentes) que tu
atteins la saturation du système.

Les tests et validations.



Quand tu es dans un datacenter, tu as toujours des machines de test,
ou alors il faut revoir sérieusement l'architecture. Si tu n'as pas de
machine de test, tu as au moins des machines redondantes qui peuvent
servir au même usage.

Le montage de maquettes rapidement.



Idem.

Des PRA facilités.
Le problème de l'explosion des x86 dans les datacenters.



On est bien d'accord. D'ailleurs, il y a un truc amusant. La
consommation est maintenant limitée par baie, et les gens se mettent à
regarder vers des architectures mieux fichues.

La fonctionnalité snapshot au niveau de l'OS.



Tu peux faire sans (je fais ça très régulièrement).

Développer pour un CPU depuis un autre (j'ai testé des environnements
multipro 64 bits sur un monopro 32bits, par exemple).



C'est bien ce que je disais plus haut. Encore que ça a d'énormes
limites. Ta machine virtuelle ne se comportera _jamais_ comme un
multipro et j'ai des cas sous la main ou un soft passe sur une machine
virtuelle et part dans des deadlock sur la vraie. Ton monoprocesseur
reste un monoprocesseur même s'il émule un multiprocesseur.

A part ça, ça n'apporte rien. Tu n'as pas a changer ta position.



Heureusement encore !

JKB

--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.
Avatar
Kojak
Le Tue, 10 Mar 2009 11:42:57 +0000 (UTC),
JKB a écrit :

Le 10-03-2009, ? propos de
Re: La surprise de W7 que l'on attendit pas...,
Kojak ?crivait dans fr.comp.os.linux.debats :
> Et dans un centre de données où plusieurs milliers de serveurs
> tournent en permanence et où les places sont chères et limit ées,
> Ça n'apporterait toujours rien pour toi ?

Non (et je loue une pièce dans un centre de calcul,
justement). Tes machines, tu les dimensionnes en fonction de ton
besoin avec comme contraintes :
[...]
d'espace est moindre. La virtualisation, c'est certainement une
solution de simplicité confortable pour l'administrateur (et lourde
du point de vue de l'OS), mais ce n'est pas quelque chose d'efficace
dans l'immense majorité des cas. Par contre, c'est dans le vent.



ROTFL ! Tu nous la joue pipotruc maintenant ?

Bref, va expliquer ça à ceux qui font, par exemple, de
l'hébergement dédié. :-)

--
Jacques.
Avatar
JKB
Le 10-03-2009, ? propos de
Re: La surprise de W7 que l'on attendit pas...,
Kojak ?crivait dans fr.comp.os.linux.debats :
Le Tue, 10 Mar 2009 11:42:57 +0000 (UTC),
JKB a écrit :

Le 10-03-2009, ? propos de
Re: La surprise de W7 que l'on attendit pas...,
Kojak ?crivait dans fr.comp.os.linux.debats :
> Et dans un centre de données où plusieurs milliers de serveurs
> tournent en permanence et où les places sont chères et limitées,
> Ça n'apporterait toujours rien pour toi ?

Non (et je loue une pièce dans un centre de calcul,
justement). Tes machines, tu les dimensionnes en fonction de ton
besoin avec comme contraintes :
[...]
d'espace est moindre. La virtualisation, c'est certainement une
solution de simplicité confortable pour l'administrateur (et lourde
du point de vue de l'OS), mais ce n'est pas quelque chose d'efficace
dans l'immense majorité des cas. Par contre, c'est dans le vent.



ROTFL ! Tu nous la joue pipotruc maintenant ?

Bref, va expliquer ça à ceux qui font, par exemple, de
l'hébergement dédié. :-)



L'hébergement dédié est un autre problème. Le but est de mettre un
maximum d'applications par mètre cube a détriment des performances de
calcul. C'est totalement différent. Ce qui est marrant, c'est que des
certains de mes clients louent (chez des grands acteurs du marché...)
des machines soi-disant à quatre processeurs pour faire tourner des
applications spécifiques, et ça se traîne (une requête SQL _locale_ sur
une table de 100 000 enregistrements avec index qui prend 10s, je
prétends avec raison que ça traîne !). Ça se traîne parce que
l'architecture est optimale du point de vue de l'hébergeur (on entasse
les clients, ça fait du chiffre), mais du point de vue de l'utilisateur
(on utilise le système lorsqu'il reste du temps). Le pire, c'est qu'ils se
posent encore la question de savoir pourquoi ça ne fonctionne pas correctement.

JKB

--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.
Avatar
Cumbalero
JKB a écrit :

L'hébergement dédié est un autre problème. Le but est de mettr e un
maximum d'applications par mètre cube a détriment des performances de
calcul.



La virtualisation, ça permet d'apporter de la souplesse. Chez mon clien t
actuel, l'essentiel des serveurs d'applis et de bases de données sont
sur des partitions de squadrons.

Les partitions dédiées au transactionnel et celles dédiées aux ba tches
sont sur des machines physiques identiques, mais les ressources sont
allouées dynamiquement en fonction des besoins (et des limites fixées
par les admins bien entendu).

Toutes les ressources libérées lorsque les utilisateurs n'utilisent p lus
les applis sont réallouées aux traitements batches et inversement.

Au final, c'est de la perf en plus pour toutes les parties des applicatio ns.

Par contre, pour ce qui est de la partie présentation (les frontaux web
par exemple), ce sont pour l'essentiel des x86 non virtualisés. Vu le
prix et les perfs demandées...

A+
JF
Avatar
Kojak
Le Tue, 10 Mar 2009 12:14:49 +0000 (UTC),
JKB a écrit :

Le 10-03-2009, ? propos de
Re: La surprise de W7 que l'on attendit pas...,
Kojak ?crivait dans fr.comp.os.linux.debats :
> Bref, va expliquer ça à ceux qui font, par exemple, de
> l'hébergement dédié. :-)

L'hébergement dédié est un autre problème. Le but es t de



Et voilà ! Quel autre problème ? La virtualisation leur est utile,
ça existe et sa fonctionne, alors ils s'en servent, point.

Maintenant qu'ils l'utilisent à bon escient ou pas, là oui c'est
un autre problème, mais pas celui de la virtualisation.

mettre un maximum d'applications par mètre cube a détriment des
performances de calcul. C'est totalement différent. Ce qui est
marrant, c'est que des certains de mes clients louent (chez des
grands acteurs du marché...) des machines soi-disant à quatre
processeurs pour faire tourner des applications spécifiques, et à §a se
traîne (une requête SQL _locale_ sur une table de 100 000
enregistrements avec index qui prend 10s, je prétends avec raison que
ça traîne !). Ça se traîne parce que l'architecture e st optimale du
point de vue de l'hébergeur (on entasse les clients, ça fait du
chiffre), mais du point de vue de l'utilisateur (on utilise le
système lorsqu'il reste du temps). Le pire, c'est qu'ils se posent
encore la question de savoir pourquoi ça ne fonctionne pas
correctement.



C'est bien ce que je disais, tout nous la joue pipomachin version
calcul intensif. :-D

Évidemment qu'une pelletée de machines virtuelles, sur un quad
ça va ramer si tout le monde charge comme des bourrins et en même
temps en plus. Tu en as d'autres comme ça. :-)

Bref, gros besoins => grosses machines et pour le reste, la
virtualisation fonctionne très bien et en plus c'est rentable.
Ce n'est pas parce que tu n'en as pas l'utilité, ou que certains
clients se font flouer que c'est forcement de la merdasse et
inutile pour les autres.

--
Jacques.
Avatar
JKB
Le 10-03-2009, ? propos de
Re: La surprise de W7 que l'on attendit pas...,
Cumbalero ?crivait dans fr.comp.os.linux.debats :
JKB a écrit :

L'hébergement dédié est un autre problème. Le but est de mettre un
maximum d'applications par mètre cube a détriment des performances de
calcul.



La virtualisation, ça permet d'apporter de la souplesse. Chez mon client
actuel, l'essentiel des serveurs d'applis et de bases de données sont
sur des partitions de squadrons.

Les partitions dédiées au transactionnel et celles dédiées aux batches
sont sur des machines physiques identiques, mais les ressources sont
allouées dynamiquement en fonction des besoins (et des limites fixées
par les admins bien entendu).

Toutes les ressources libérées lorsque les utilisateurs n'utilisent plus
les applis sont réallouées aux traitements batches et inversement.

Au final, c'est de la perf en plus pour toutes les parties des applications.

Par contre, pour ce qui est de la partie présentation (les frontaux web
par exemple), ce sont pour l'essentiel des x86 non virtualisés. Vu le
prix et les perfs demandées...



Sauf que depuis belle lurette, on fait des clusters SSI. Ça fait
exactement la même chose, virtualisation en moins...

JKB

--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.
Avatar
totof2000
>         P'taing, de la virtualisation... C'est vraiment un truc q ue mon
cerveau certainement limité d'arrivera _jamais_ à comprendre pour aut re
chose que le développement d'OS... Rajouter des couches, et lorsque ç a
se bauge, on ne sait plus ce qui foire...



Ben BM fait ça dans ses mainframes depuis des années .... Et ca marche
pas trop mal, c'est même très stable ...

Sinon c'est bien pratique pour des petits serveurs pas trop sensibles.
Par contre c'est clair que pour une appli critique, vaut mieux pas y
penser.
Avatar
JKB
Le 10-03-2009, ? propos de
Re: La surprise de W7 que l'on attendit pas...,
Kojak ?crivait dans fr.comp.os.linux.debats :
Le Tue, 10 Mar 2009 12:14:49 +0000 (UTC),
JKB a écrit :

Le 10-03-2009, ? propos de
Re: La surprise de W7 que l'on attendit pas...,
Kojak ?crivait dans fr.comp.os.linux.debats :
> Bref, va expliquer ça à ceux qui font, par exemple, de
> l'hébergement dédié. :-)

L'hébergement dédié est un autre problème. Le but est de



Et voilà ! Quel autre problème ? La virtualisation leur est utile,
ça existe et sa fonctionne, alors ils s'en servent, point.

Maintenant qu'ils l'utilisent à bon escient ou pas, là oui c'est
un autre problème, mais pas celui de la virtualisation.

mettre un maximum d'applications par mètre cube a détriment des
performances de calcul. C'est totalement différent. Ce qui est
marrant, c'est que des certains de mes clients louent (chez des
grands acteurs du marché...) des machines soi-disant à quatre
processeurs pour faire tourner des applications spécifiques, et ça se
traîne (une requête SQL _locale_ sur une table de 100 000
enregistrements avec index qui prend 10s, je prétends avec raison que
ça traîne !). Ça se traîne parce que l'architecture est optimale du
point de vue de l'hébergeur (on entasse les clients, ça fait du
chiffre), mais du point de vue de l'utilisateur (on utilise le
système lorsqu'il reste du temps). Le pire, c'est qu'ils se posent
encore la question de savoir pourquoi ça ne fonctionne pas
correctement.



C'est bien ce que je disais, tout nous la joue pipomachin version
calcul intensif. :-D

Évidemment qu'une pelletée de machines virtuelles, sur un quad
ça va ramer si tout le monde charge comme des bourrins et en même
temps en plus. Tu en as d'autres comme ça. :-)

Bref, gros besoins => grosses machines et pour le reste, la
virtualisation fonctionne très bien et en plus c'est rentable.
Ce n'est pas parce que tu n'en as pas l'utilité, ou que certains
clients se font flouer que c'est forcement de la merdasse et
inutile pour les autres.



Ce n'est pas du tout ce que j'ai dit. J'ai simplement affirmé que
dans l'immense majorité des cas, ça ne sert à rien. Ce qui est
totalement différent du 'c'est inutile'. Si tu n'es pas capable de
comprendre ça, je ne peux strictement rien pour toi. On arrive à faire
mieux et plus efficace avec d'autres choses, mais qui sont moins dans le
vent. Prends n'importe quel type sorti de n'importe quelle école
d'informatique, il va te parler virtualisation, java et d'autres
concepts nébulo-fumeux. Le pire, c'est que quel que soit le problème, la
réponse sera toujours la même. Personne ne te parlera de cluster SSI
(par exemple, et pourtant dans l'immense majorité des cas, un bon vieux
SSI, c'est largement mieux que le mille-feuille virtualisation, mais
faut-il encore avoir entendu parler de ce genre de chose...).
Personne non plus ne te parlera des problèmes de la virtualisation à
mettre en regard des avantages.

<EOT>

--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.