suite =E0 une panne sur un XServe G4 bi processeurs, probablement
due =E0 un fort "load average", et =E0 n=E9cessit=E9 un red=E9marrage "=E0 =
la
main" du serveur, je voudrai optimiser la chose:
Le serveur est chez Jaguar Network qui a =E9t=E9 redoutablement efficace
et rapide.
(panne de trois heures).
Lors de la panne.
14:16 up 5:14, 8 users, load averages: 7.25 7.58 7.71
Je dispose d'un second Xserve G4 mono (utilis=E9 pour le dev et bruyant)
Sur chaque machine, deux Apple Drive Module for Xserve. Je peux en
acheter un troisi=E8me, en cas ,bien que pas tr=E8s riche :=3D)
J'ai entendu parler de load balancing... de Raid sur une des machines
(pas
actif =E0 cette heure). De carte RAID, de proxy...etc...mais je ne suis
pas pro de la chose.
Je voudrai optimiser mes serveurs Web, mettre le second serveur en
baie,
faire contr=F4ler le second par le premier, me mailer en cas de nouvelle
panne identique. Bref, ne plus me faire coller.
Quelqu'un peut il m'=E9clairer et me guider.
Merci par avance.
Je cherche aussi une ressource, r=E9mun=E9r=E9e =E0 la tache pour m'aider d=
ans
MacOSXServeur (mails, etc..)
heureux mortel, nous quand on rsync nos xserve sur le xsan ça prend 2 fois plus de temps que quand on faisait la même chose exactement sur une baie xraid sans xsan. J'appelle pas ça "bien se porter".
Ah ça, je ne dis pas le contraire, les performances Xsan sur une ou deux baies ça fait bizarre, le fait que le fs soit commun et géré par une entité externe (les MDC) n'aide pas. Mais bon, ça permet aussi d'évoluer un peu plus en taille que des Xserve RAID en DAS (l'exemple que je citais devait au départ faire un seul volume d'environ 45To même si finalement ils ont réfléchi et préféré faire 2 volumes). Les perfs reviennent quand on augmente le nombre de baies. Mais ça dépend aussi de la config, il est vrai.
Si ça tenait qu'à moi, il dégagerait le xsan. En plus c'est d'une fragilité crasse.
Faut lui parler gentiment :-D
En même temps, faudra peut être qu'on reçoive une formation un jour... hmmm :)
Ah ben quand vous voulez. Antibes, ça te dit ?
-- Politically Correct Unix - UTILITIES The "touch" command has been removed from the standard distribution due to its inappropriate use by high-level managers.
patpro ~ patrick proniewski <patpro@boleskine.patpro.net> wrote:
heureux mortel, nous quand on rsync nos xserve sur le xsan ça prend 2
fois plus de temps que quand on faisait la même chose exactement sur une
baie xraid sans xsan. J'appelle pas ça "bien se porter".
Ah ça, je ne dis pas le contraire, les performances Xsan sur une ou deux
baies ça fait bizarre, le fait que le fs soit commun et géré par une
entité externe (les MDC) n'aide pas. Mais bon, ça permet aussi d'évoluer
un peu plus en taille que des Xserve RAID en DAS (l'exemple que je
citais devait au départ faire un seul volume d'environ 45To même si
finalement ils ont réfléchi et préféré faire 2 volumes). Les perfs
reviennent quand on augmente le nombre de baies. Mais ça dépend aussi de
la config, il est vrai.
Si ça tenait qu'à moi, il dégagerait le xsan. En plus c'est d'une
fragilité crasse.
Faut lui parler gentiment :-D
En même temps, faudra peut être qu'on reçoive une
formation un jour... hmmm :)
Ah ben quand vous voulez. Antibes, ça te dit ?
--
Politically Correct Unix - UTILITIES
The "touch" command has been removed from the standard distribution due
to its inappropriate use by high-level managers.
heureux mortel, nous quand on rsync nos xserve sur le xsan ça prend 2 fois plus de temps que quand on faisait la même chose exactement sur une baie xraid sans xsan. J'appelle pas ça "bien se porter".
Ah ça, je ne dis pas le contraire, les performances Xsan sur une ou deux baies ça fait bizarre, le fait que le fs soit commun et géré par une entité externe (les MDC) n'aide pas. Mais bon, ça permet aussi d'évoluer un peu plus en taille que des Xserve RAID en DAS (l'exemple que je citais devait au départ faire un seul volume d'environ 45To même si finalement ils ont réfléchi et préféré faire 2 volumes). Les perfs reviennent quand on augmente le nombre de baies. Mais ça dépend aussi de la config, il est vrai.
Si ça tenait qu'à moi, il dégagerait le xsan. En plus c'est d'une fragilité crasse.
Faut lui parler gentiment :-D
En même temps, faudra peut être qu'on reçoive une formation un jour... hmmm :)
Ah ben quand vous voulez. Antibes, ça te dit ?
-- Politically Correct Unix - UTILITIES The "touch" command has been removed from the standard distribution due to its inappropriate use by high-level managers.
patpro ~ patrick proniewski
In article <1hyj5v6.1bg6vyc1st4bfN%, (Laurent Pertois) wrote:
Ah ben quand vous voulez. Antibes, ça te dit ?
rahhh lovely :) je vais en parler a Jo' ;)
patpro
-- http://www.patpro.net/
In article <1hyj5v6.1bg6vyc1st4bfN%laurent.pertois@alussinan.org>,
laurent.pertois@alussinan.org (Laurent Pertois) wrote:
In article <1hyj5v6.1bg6vyc1st4bfN%, (Laurent Pertois) wrote:
Ah ben quand vous voulez. Antibes, ça te dit ?
rahhh lovely :) je vais en parler a Jo' ;)
patpro
-- http://www.patpro.net/
jean-pierre poindessault
In article , patpro ~ patrick proniewski wrote:
Ok, avec les détails de la question, je comprends mieux !
In article , "J.P. Poindessault" wrote:
Non, je parlais du RAID logiciel dont j'ai compris que tu le montais sur les disques du XServe. Quel mode de RAID ? Combien de disques: RAID, spare
Xserve avec 3 disques : RAID miroir sur les deux premiers disques (boot), 3eme disque en copie du RAID synchronisée par rsync une fois par nuit. On fait une rotation physique de ce 3eme disque une fois par mois, et on stock le disque extrait hors site. On tourne sur 2 disques, un dans la machine et un hors site. On rsync aussi tous les Xserves vers une baie RAID, qui à terme sera archivée sur bande.
et tout ce que tu veux bien partager sur ton expérience qui m'intéresse au plus haut point puisque dans le même environnement qu'ici (U. de Poitiers) et gros volume data et users. Config locale: un XServe biPro G4 1,33GHz de 2003, 2 disques de 60Go sous 10.3.9 server un XServe RAID 5x180Go + 4x250Go 200 comptes environ
on a hmmm... 30-40 machines : 7 rack PC Linux (fujitsu et Supermicro) le reste en XServe On a 3 baies XServe RAID : - deux dans un XSan qu'on a monté très récemment - une qu'on garde pour les choses vraiment critiques comme les mails et les documents de nos +40000 comptes utilisateur (et paf dans la tête de XSan).
J'ai commencé la phase "diplomatique" pour remplacer tout ça vers la fin 2008, et donc toute config "moderne" m'intéresse P.S.: si tu as un web qui raconte tout ça ...
pas tout loin de là, et pas à jour non plus. On a juste une ébauche de notre architecture de mail qui date de 2005. Je te mail une URL.
patpro
OK, merci beaucoup. Ta formule RAID du XServe m'intéresse.
Jean-Pierre
In article <patpro-C8BAEE.19024922052007@news-1.proxad.net>,
patpro ~ patrick proniewski <patpro@boleskine.patpro.net> wrote:
Ok, avec les détails de la question, je comprends mieux !
In article
<jean.pierre.poindessault-589AD6.17584822052007@news.free.fr>,
"J.P. Poindessault" <jean.pierre.poindessault@univ-poitiers.fr> wrote:
Non, je parlais du RAID logiciel dont j'ai compris que tu le montais sur
les
disques du XServe.
Quel mode de RAID ?
Combien de disques: RAID, spare
Xserve avec 3 disques : RAID miroir sur les deux premiers disques
(boot), 3eme disque en copie du RAID synchronisée par rsync une fois par
nuit.
On fait une rotation physique de ce 3eme disque une fois par mois, et on
stock le disque extrait hors site. On tourne sur 2 disques, un dans la
machine et un hors site.
On rsync aussi tous les Xserves vers une baie RAID, qui à terme sera
archivée sur bande.
et tout ce que tu veux bien partager sur ton expérience qui m'intéresse au
plus
haut point puisque dans le même environnement qu'ici (U. de Poitiers) et
gros
volume data et users.
Config locale:
un XServe biPro G4 1,33GHz de 2003, 2 disques de 60Go sous 10.3.9 server
un XServe RAID 5x180Go + 4x250Go
200 comptes environ
on a hmmm... 30-40 machines :
7 rack PC Linux (fujitsu et Supermicro)
le reste en XServe
On a 3 baies XServe RAID :
- deux dans un XSan qu'on a monté très récemment
- une qu'on garde pour les choses vraiment critiques comme les mails et
les documents de nos +40000 comptes utilisateur (et paf dans la tête de
XSan).
J'ai commencé la phase "diplomatique" pour remplacer tout ça vers la fin
2008,
et donc toute config "moderne" m'intéresse
P.S.: si tu as un web qui raconte tout ça ...
pas tout loin de là, et pas à jour non plus. On a juste une ébauche de
notre architecture de mail qui date de 2005.
Je te mail une URL.
patpro
OK, merci beaucoup.
Ta formule RAID du XServe m'intéresse.
Ok, avec les détails de la question, je comprends mieux !
In article , "J.P. Poindessault" wrote:
Non, je parlais du RAID logiciel dont j'ai compris que tu le montais sur les disques du XServe. Quel mode de RAID ? Combien de disques: RAID, spare
Xserve avec 3 disques : RAID miroir sur les deux premiers disques (boot), 3eme disque en copie du RAID synchronisée par rsync une fois par nuit. On fait une rotation physique de ce 3eme disque une fois par mois, et on stock le disque extrait hors site. On tourne sur 2 disques, un dans la machine et un hors site. On rsync aussi tous les Xserves vers une baie RAID, qui à terme sera archivée sur bande.
et tout ce que tu veux bien partager sur ton expérience qui m'intéresse au plus haut point puisque dans le même environnement qu'ici (U. de Poitiers) et gros volume data et users. Config locale: un XServe biPro G4 1,33GHz de 2003, 2 disques de 60Go sous 10.3.9 server un XServe RAID 5x180Go + 4x250Go 200 comptes environ
on a hmmm... 30-40 machines : 7 rack PC Linux (fujitsu et Supermicro) le reste en XServe On a 3 baies XServe RAID : - deux dans un XSan qu'on a monté très récemment - une qu'on garde pour les choses vraiment critiques comme les mails et les documents de nos +40000 comptes utilisateur (et paf dans la tête de XSan).
J'ai commencé la phase "diplomatique" pour remplacer tout ça vers la fin 2008, et donc toute config "moderne" m'intéresse P.S.: si tu as un web qui raconte tout ça ...
pas tout loin de là, et pas à jour non plus. On a juste une ébauche de notre architecture de mail qui date de 2005. Je te mail une URL.
patpro
OK, merci beaucoup. Ta formule RAID du XServe m'intéresse.
Jean-Pierre
jean-pierre poindessault
In article , patpro ~ patrick proniewski wrote:
In article <1hyj5v6.1bg6vyc1st4bfN%, (Laurent Pertois) wrote:
Ah ben quand vous voulez. Antibes, ça te dit ?
rahhh lovely :) je vais en parler a Jo' ;)
patpro
Pour moi, la prochaine c'est à Viña del Mar ...
Jean-Pierre
In article <patpro-12C9B6.20465522052007@news-1.proxad.net>,
patpro ~ patrick proniewski <patpro@boleskine.patpro.net> wrote:
In article <1hyj5v6.1bg6vyc1st4bfN%laurent.pertois@alussinan.org>,
laurent.pertois@alussinan.org (Laurent Pertois) wrote:
In article <1hyj5v6.1bg6vyc1st4bfN%, (Laurent Pertois) wrote:
Ah ben quand vous voulez. Antibes, ça te dit ?
rahhh lovely :) je vais en parler a Jo' ;)
patpro
Pour moi, la prochaine c'est à Viña del Mar ...
Jean-Pierre
laurent.pertois
patpro ~ patrick proniewski wrote:
In article <1hyj5v6.1bg6vyc1st4bfN%, (Laurent Pertois) wrote:
Ah ben quand vous voulez. Antibes, ça te dit ?
rahhh lovely :)
N'est-ce pas ? :-)
je vais en parler a Jo' ;)
Bonne idée...
-- Politically Correct Unix - UTILITIES The "touch" command has been removed from the standard distribution due to its inappropriate use by high-level managers.
patpro ~ patrick proniewski <patpro@boleskine.patpro.net> wrote:
In article <1hyj5v6.1bg6vyc1st4bfN%laurent.pertois@alussinan.org>,
laurent.pertois@alussinan.org (Laurent Pertois) wrote:
Ah ben quand vous voulez. Antibes, ça te dit ?
rahhh lovely :)
N'est-ce pas ? :-)
je vais en parler a Jo' ;)
Bonne idée...
--
Politically Correct Unix - UTILITIES
The "touch" command has been removed from the standard distribution due
to its inappropriate use by high-level managers.
In article <1hyj5v6.1bg6vyc1st4bfN%, (Laurent Pertois) wrote:
Ah ben quand vous voulez. Antibes, ça te dit ?
rahhh lovely :)
N'est-ce pas ? :-)
je vais en parler a Jo' ;)
Bonne idée...
-- Politically Correct Unix - UTILITIES The "touch" command has been removed from the standard distribution due to its inappropriate use by high-level managers.