OVH Cloud OVH Cloud

Linux vers Windows

160 réponses
Avatar
R12y
Godaddy, qui, il parait, est un gros de son secteur migre vers Windows:
http://fr.sys-con.com/read/197402.htm

--
Debian/apt Repo: http://locataire-serveur.info/sections/liens/debian-repository
Fedora/yum Repo: http://locataire-serveur.info/sections/liens/fedora-core-yum

10 réponses

Avatar
Emmanuel Florac
Le Thu, 13 Apr 2006 12:01:11 +0200, Michel Billaud a écrit :


Finalement la bonne solution, c'est de leur vendre très cher les
applications opensource.


C'est pour ma part ce que je fais, et ça fonctionne très bien.

--
In girum imus nocte ecce et consumimur igni

Avatar
talon
Patrice Karatchentzeff wrote:
(Michel Talon) writes:

Patrice Karatchentzeff wrote:

Mouarf. Bien avant le débarquement des mastodontes (disons la série
2.0, je ne suis même pas sûr pour le 2.2), le noyau était déjà
largement un truc professionnel...


Mais oui, un truc professionnel pour faire tourner sur le Pécé de la cave.


Tu sais, les IBM haut de gamme aujourd'hui, c'est du pécé...


Avec combien de processeurs, combien de mémoire, combien de disques, etc. ?
Avec un Linux 2.0 ou 2.2 ajouter des processeurs soit ne change rien quand il
ne les voit pas soit fait baisser les performances s'il les voit. La quantité
de mémoire qu'il peut gérer est trés limitée, le swap limité à une quantité
dérisoire, la gestion de la VM, il vaut mieux ne pas en parler, les systèmes de
fichier c'est le salaire de la peur en cas de coupure de courant, la couche
réseau ça doit marcher à peu prés sur du 10 Mb et perdre la moitié des
paquets au delà, et tout à l'avenant.


PK



--

Michel TALON



Avatar
Patrice Karatchentzeff
(Michel Talon) writes:

Patrice Karatchentzeff wrote:


[...]

Tu sais, les IBM haut de gamme aujourd'hui, c'est du pécé...


Avec combien de processeurs, combien de mémoire, combien de disques,
etc. ?


Environ 4 par rack. Tu mets environ 8 racks par armoire. Cela te fait
un mini cluster à 32 processeurs. Pour les disques, la limite est
celle des disques SCSI (plus ils sont gros, plus ils sont lents)
donc...

Bref, avant de taquer ce genre de machine, il faut avoir des besoins
hors-normes et donc faire partie d'une clientèle qui doit représenter
moins de 0.1% du marché...

Avec un Linux 2.0 ou 2.2 ajouter des processeurs soit ne change rien quand il
ne les voit pas soit fait baisser les performances s'il les voit. La
quantité


N'importe quoi : les 2.0 étant les premiers smp mais je reconnais
qu'ils n'étaient pas extraordinaire. Le 2.2 est disons le premier «
vrai » SMP.

de mémoire qu'il peut gérer est trés limitée, le swap limité à une quantité
dérisoire, la gestion de la VM, il vaut mieux ne pas en parler, les
systèmes de fichier c'est le salaire de la peur en cas de coupure de courant, la couche
réseau ça doit marcher à peu prés sur du 10 Mb et perdre la moitié des
paquets au delà, et tout à l'avenant.


Tu as sûrement raison : je crois me rappeler que l'uptime ne dépassait
rarement quelques minutes sur tous ces noyaux tellement ils étaient
pourris... il paraît même que certains fous auraient réussi à exécuter
un 'ls' sur un fichier ext2 un jour...

PK

--
      |      _,,,---,,_       Patrice KARATCHENTZEFF
ZZZzz /,`.-'`'    -.  ;-;;,_   mailto:
     |,4-  ) )-,_. , (  `'-'  http://p.karatchentzeff.free.fr
    '---''(_/--'  `-'_)       


Avatar
Emmanuel Florac
Le Fri, 14 Apr 2006 09:00:09 +0200, Patrice Karatchentzeff a écrit :


Tu as sûrement raison : je crois me rappeler que l'uptime ne dépassait
rarement quelques minutes sur tous ces noyaux tellement ils étaient
pourris...


:) En tout cas j'ai eu des uptimes de plusieurs mois sur un 486 serveur
ftp avec un noyau 1.1, et aussi avec un serveur de dév principal
(serveur de fichiers, DNS, de mail, etc) sous RH 6.2 (linux 2.0 je crois?
ou 2.2?) qui a eu un uptime de plus de 6 mois...

--
Quidquid latine dictum sit, altum sonatur

Avatar
JKB
Le 14-04-2006, à propos de
Re: Linux vers Windows,
Emmanuel Florac écrivait dans fr.comp.os.linux.debats :
Le Fri, 14 Apr 2006 09:00:09 +0200, Patrice Karatchentzeff a écrit :


Tu as sûrement raison : je crois me rappeler que l'uptime ne dépassait
rarement quelques minutes sur tous ces noyaux tellement ils étaient
pourris...


:) En tout cas j'ai eu des uptimes de plusieurs mois sur un 486 serveur
ftp avec un noyau 1.1, et aussi avec un serveur de dév principal
(serveur de fichiers, DNS, de mail, etc) sous RH 6.2 (linux 2.0 je crois?
ou 2.2?) qui a eu un uptime de plus de 6 mois...


11 mois sur un PowerPC 7100 (Nubus) avec un mklinux (noyau 2.0.35).
Qui dit mieux ?

JKB


Avatar
talon
Patrice Karatchentzeff wrote:
(Michel Talon) writes:

de mémoire qu'il peut gérer est trés limitée, le swap limité à une quantité
dérisoire, la gestion de la VM, il vaut mieux ne pas en parler, les
systèmes de fichier c'est le salaire de la peur en cas de coupure de courant, la couche
réseau ça doit marcher à peu prés sur du 10 Mb et perdre la moitié des
paquets au delà, et tout à l'avenant.


Tu as sûrement raison : je crois me rappeler que l'uptime ne dépassait
rarement quelques minutes sur tous ces noyaux tellement ils étaient
pourris... il paraît même que certains fous auraient réussi à exécuter
un 'ls' sur un fichier ext2 un jour...



Non l'uptime était relativement bon, tant qu'on ne faisait pas une manoeuvre
dangereuse, telle que monter une disquette avec des bad blocks. Si l'uptime
était bon c'est parceque le système était simple, pour ne pas dire simpliste.
Mais simple et performant ça n'existe pas, et ça n'existera jamais.
Quand au système consistant à faire croire qu'on fait des accés disques trés
trés rapides parcequ'on cache tout en mémoire de façon avide, qu'on ne
synchronise le disque que toutes les 30 secondes bien qu'il n'y ait pas de
journal, c'est à dire le ext2 monté async comme c'était de règle à l'époque,
c'est tout sauf professionnel. La couche réseau a été refaite de fond en
comble 3 ou 4 fois, ce n'est pas pour rien. Encore à l'heure actuelle
sur les noyaux 2.6 il paraît que l'usage de cartes gigabit ethernet entraîne
une perte généreuse de paquets, là où la même machine, avec la même carte sous
Windows n'en perd pas. Ne parlons pas aussi des latences bien plus grandes que
sous Windows qui handicapaient le système de son considérablement. Tous ces
problèmes ont été plus ou moins attaqués par les ingénieurs de Redhat, Suse,
IBM, etc. au prix d'une grande complexification du système. Contrairement
à ce que tu dis le "fine grained locking" est arrivé avec les noyaux 2.4,
et je pense que IBM a contribué le Read Copy Update pour le 2.6. Ce qui
veut dire que les bons résultats en SMP dont Linux peut se targuer maintenant
datent essentiellement du 2.6. Tu dis que les machines à beaucoup de
processeurs ça n'existe que dans des applications trés spécialisées, ce
n'est pas vrai. Avec des niagara qui sont déjà à 32 processeurs (virtuels)
tout le monde va s'y mettre rapidement.


PK



--

Michel TALON


Avatar
JKB
Le 14-04-2006, à propos de
Re: Linux vers Windows,
Michel Talon écrivait dans fr.comp.os.linux.debats :
Patrice Karatchentzeff wrote:
(Michel Talon) writes:

de mémoire qu'il peut gérer est trés limitée, le swap limité à une quantité
dérisoire, la gestion de la VM, il vaut mieux ne pas en parler, les
systèmes de fichier c'est le salaire de la peur en cas de coupure de courant, la couche
réseau ça doit marcher à peu prés sur du 10 Mb et perdre la moitié des
paquets au delà, et tout à l'avenant.


Tu as sûrement raison : je crois me rappeler que l'uptime ne dépassait
rarement quelques minutes sur tous ces noyaux tellement ils étaient
pourris... il paraît même que certains fous auraient réussi à exécuter
un 'ls' sur un fichier ext2 un jour...



Non l'uptime était relativement bon, tant qu'on ne faisait pas une manoeuvre
dangereuse, telle que monter une disquette avec des bad blocks. Si l'uptime
était bon c'est parceque le système était simple, pour ne pas dire simpliste.
Mais simple et performant ça n'existe pas, et ça n'existera jamais.
Quand au système consistant à faire croire qu'on fait des accés disques trés
trés rapides parcequ'on cache tout en mémoire de façon avide, qu'on ne
synchronise le disque que toutes les 30 secondes bien qu'il n'y ait pas de
journal, c'est à dire le ext2 monté async comme c'était de règle à l'époque,
c'est tout sauf professionnel.


Mouarf... Celle-là, je l'encardre ! Dis, de quand date le noyau 2.0
? Quels étaient les systèmes de fichiers à l'époque (tous systèmes
confondus) ? Pourquoi ext2 était-il monté par défaut en asynchrone ?
Allez, je t'aide, parce que l'interface des disques durs par défaut
sur un PC était (est toujours d'ailleurs) complètement moisie.

La couche réseau a été refaite de fond en
comble 3 ou 4 fois, ce n'est pas pour rien. Encore à l'heure actuelle
sur les noyaux 2.6 il paraît que l'usage de cartes gigabit ethernet entraîne
une perte généreuse de paquets, là où la même machine, avec la même carte sous
Windows n'en perd pas.


J'aime bien le 'il paraît'... On ne doit pas avoir les mêmes cartes
réseau...

Au hassard :

aboulafia:~# ifconfig
eth0 Lien encap:Ethernet HWaddr 00:13:46:3A:B3:0A
inet adr:192.168.0.2 Bcast:192.168.0.255 Masque:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1492 Metric:1
RX packets:18555826 errors:0 dropped:0 overruns:0 frame:0
TX packets:21059289 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 lg file transmission:1000
RX bytes:64858432 (61.8 MiB) TX bytes:2430885454 (2.2 GiB)
Interruption:169 Adresse de base:0x8000
...

L'autre interface qui est une 100 Mbps connectée au grand ternet
par une LS est nettement plus chargée.

aboulafia:~# dmesg | grep eth0
eth0: Identified chip type is 'RTL8169s/8110s'.
eth0: RTL8169 at 0xe0808000, 00:13:46:3a:b3:0a, IRQ 169
r8169: eth0: link up
aboulafia:~# uptime
11:24:17 up 15 days, 22:46, 1 user, load average: 0.01, 0.06, 0.02
aboulafia:~# uname -a
Linux aboulafia 2.6.15.6 #3 Wed Mar 29 12:36:03 CEST 2006 i686 GNU/Linux

Et encore, l'uptime est ridicule parce que j'ai dû refaire un noyau
pour monter un volume Raid6 !

Ne parlons pas aussi des latences bien plus grandes que
sous Windows qui handicapaient le système de son considérablement.s


C'est bizarre. J'ai commencé à maintenir des gros serveurs en prod
(i386 et alpha) en noyau 2.0 et je n'ai _jamais_ vu de problème de
latence, même sur de l'antique 10Base2.

Tous ces
problèmes ont été plus ou moins attaqués par les ingénieurs de Redhat, Suse,
IBM, etc. au prix d'une grande complexification du système. Contrairement
à ce que tu dis le "fine grained locking" est arrivé avec les noyaux 2.4,
et je pense que IBM a contribué le Read Copy Update pour le 2.6. Ce qui
veut dire que les bons résultats en SMP dont Linux peut se targuer maintenant
datent essentiellement du 2.6.


Dis... As-tu essayé le SMP avec autre chose que du i386, du sparc64
et du X86_64 ? Les 2.2 étaient beaucoup plus performants en terme de
SMP sur des HyperSPARC par exemple (et j'en ai _beaucoup_ en prod,
j'ai même encore acheté des ROSS-626 neufs le mois dernier !). Le 2.6/smp
commence à être stable sur SuperSPARC en 2.6.17-rc1 avec un patch fait
maison en collaboration avec un mainteneur du noyau officiel !
L'HyperSPARC en smp 2.6 est buggué jusqu'à la moëlle et j'en suis à
désactiver le cache du proc pour pouvoir booter (en raison d'un
fumeux cache aliasing absent sur les SuperSPARC).

Tu vas me dire, c'est du vieux matériel. Seulement, ce vieux
matériel se rencontre encore pas mal dans la vraie vie (surtout que
de plus en plus de projets embarqués utilisent un SparcV8 dans un
FPGA, donc l'architecture Sparc32 est loin d'être morte).

Tu dis que les machines à beaucoup de
processeurs ça n'existe que dans des applications trés spécialisées, ce
n'est pas vrai. Avec des niagara qui sont déjà à 32 processeurs (virtuels)
tout le monde va s'y mettre rapidement.


C'est ça... Pour cela, il faudra des applications massivement
multithreadées avec un support multithread sur multiprocesseur (même
Sun réchigne dans ses JVM, c'est dire !), et il faudra nécessiter la
puissance de calcul. Pour monsieur tout le monde, ça n'a strictement
aucun intérêt puisqu'il veut que sa feuille de calcul qui sortait en
3 secondes sur son P2/333 sorte en moins d'un dixième de seconde sur
son dernier PC (quelle évolution), et non en cinq dixième de seconde
parce qu'il fait que $n$ processeurs rendent leurs caches cohérents
au risque de se tirer une balle dans le pied.

JKB



Avatar
Khanh-Dang
JKB wrote:
Ne parlons pas aussi des latences bien plus grandes que
sous Windows qui handicapaient le système de son considérablement.s


C'est bizarre. J'ai commencé à maintenir des gros serveurs en prod
(i386 et alpha) en noyau 2.0 et je n'ai _jamais_ vu de problème de
latence, même sur de l'antique 10Base2.


Michel parlait du système son. Il y a beaucoup d'exemples sur le web
montrant des problèmes de latences qui causent des coupures de son
à cause d'un accès disque.

Un serveur, fût-il gros ou petit, est beaucoup moins sujet à des
problèmes de latences qu'une station dont l'usage est la bureautique ou
le multimédia.


Avatar
stephane
On 2006-04-14, Michel Talon wrote:

Mais simple et performant ça n'existe pas, et ça n'existera jamais.


C'est le genre de phrase plutot decredibilisante pour son auteur ca.

datent essentiellement du 2.6. Tu dis que les machines à beaucoup de
processeurs ça n'existe que dans des applications trés spécialisées, ce
n'est pas vrai. Avec des niagara qui sont déjà à 32 processeurs (virtuels)
tout le monde va s'y mettre rapidement.


Le fait est que c'est toujours pas dans mon salon et que c'etait a peu
pret nulle part a l'epoque du noyau 2.0 ou 2.2.

Ceux qui ont les moyens de se payer 32 processeurs peuvent aussi se
payer l'AIX/Solaris/HP-UX/... qui va dessus. Linux peut le faire ? tres
bien, mais tres franchement, dans la vie de tous les jours, j'en ai
strictement rien a faire.


--
http://www.unices.org Photos, humour et autres blogueries

Avatar
talon
JKB wrote:
Quand au système consistant à faire croire qu'on fait des accés disques trés
trés rapides parcequ'on cache tout en mémoire de façon avide, qu'on ne
synchronise le disque que toutes les 30 secondes bien qu'il n'y ait pas de
journal, c'est à dire le ext2 monté async comme c'était de règle à l'époque,
c'est tout sauf professionnel.


Mouarf... Celle-là, je l'encardre ! Dis, de quand date le noyau 2.0
? Quels étaient les systèmes de fichiers à l'époque (tous systèmes
confondus) ? Pourquoi ext2 était-il monté par défaut en asynchrone ?
Allez, je t'aide, parce que l'interface des disques durs par défaut
sur un PC était (est toujours d'ailleurs) complètement moisie.


Pour un mec qui développe un système OpenVMS des familles celle là je
l'encadre encore plus. Comme les disques sont pourris on monte tout en
asynchrone histoire de risquer de bouziller le système de fichiers 100 fois
mieux! Je vais te rencarder, on montait en asynchrone parcequ'en synchrone ça
se traînait comme un limaçon.


--

Michel TALON