Philippe Weill a écrit :quel type de switch
il en existe avec des firmwares bien pourri
C'est un Dell pc5448, configuré comme ceci :
interface range ethernet g41-44
no switchport mode
channel-group 2 mode auto
interface port-channel 2
switchport mode access
switchport access vlan 9
Je graphe avec snmp mon bond0 sur le serveur et le ch2 sur le switch, et
mes 2 courbes sont cohérentes
pour les perf locales cela donne quoi le systeme de fichier
hem... en fait j'ai pas testé :))
On n'a _aucune_ information. La machine en question tourne avec
knfsd (c'est bien, c'est mieux que unfs ou userland-nfsd).
Que veux-tu savoir exactement ?Je commencerais à mettre un NFSv3/TCP (pas de v4, parce que ce truc
est actuellement inutilisable sous Linux) avec des paquets de 32 Ko.
Je n'ai pas précisé TCP dans l'automonteur... Il me semble que depuis
nfs v3 TCP est utilisé par défaut non ?
Pour ce qui est du V3, est-ce qu'il y a moyen de préciser à nfs de ne
faire que du V3 et rien d'autre ?J'espère que le mode async est activé (parce que sinon ça risque de
ramouiller très fort). Je ne suis vraiment pas sûr que le fait de passer
à 128 threads soit une excellente idée surtout dans le cas d'un daemon
UDP (ça pourrait se justifier en TCP, et encore). Bref :
- 8 threads pour commencer
- mode async pour tout le monde
- NFSv3
oups :
:~$ cat /etc/exports
/data/fae *(rw,sync,no_subtree_check)
coté automonteur, j'ai fais dans la simplicité :
[ ~]$ mount | grep filer1
filer1:/data/fae on /auto/filer1_fae type nfs (rw,addr=x.x.x.x)
Cette machine est destinée à être lourdement sollicitée, et aura besoin
de ses 4gbps de bande passante, donc il _FAUT_ que nfs se dépatouille
avec le bonding !en cas de doute on peut faire sans mais cela marche bien
options bonding miimon0 mode=4 xmit_hash_policy=layer3+4
je me suis contenté de ça :
options bonding mode=4 miimon0 downdelay 0 updelay 0
Quel est l'intéret du xmit_hash_policy ?
Philippe Weill a écrit :
quel type de switch
il en existe avec des firmwares bien pourri
C'est un Dell pc5448, configuré comme ceci :
interface range ethernet g41-44
no switchport mode
channel-group 2 mode auto
interface port-channel 2
switchport mode access
switchport access vlan 9
Je graphe avec snmp mon bond0 sur le serveur et le ch2 sur le switch, et
mes 2 courbes sont cohérentes
pour les perf locales cela donne quoi le systeme de fichier
hem... en fait j'ai pas testé :))
On n'a _aucune_ information. La machine en question tourne avec
knfsd (c'est bien, c'est mieux que unfs ou userland-nfsd).
Que veux-tu savoir exactement ?
Je commencerais à mettre un NFSv3/TCP (pas de v4, parce que ce truc
est actuellement inutilisable sous Linux) avec des paquets de 32 Ko.
Je n'ai pas précisé TCP dans l'automonteur... Il me semble que depuis
nfs v3 TCP est utilisé par défaut non ?
Pour ce qui est du V3, est-ce qu'il y a moyen de préciser à nfs de ne
faire que du V3 et rien d'autre ?
J'espère que le mode async est activé (parce que sinon ça risque de
ramouiller très fort). Je ne suis vraiment pas sûr que le fait de passer
à 128 threads soit une excellente idée surtout dans le cas d'un daemon
UDP (ça pourrait se justifier en TCP, et encore). Bref :
- 8 threads pour commencer
- mode async pour tout le monde
- NFSv3
oups :
rico@filer1:~$ cat /etc/exports
/data/fae *(rw,sync,no_subtree_check)
coté automonteur, j'ai fais dans la simplicité :
[rico@kapa4 ~]$ mount | grep filer1
filer1:/data/fae on /auto/filer1_fae type nfs (rw,addr=x.x.x.x)
Cette machine est destinée à être lourdement sollicitée, et aura besoin
de ses 4gbps de bande passante, donc il _FAUT_ que nfs se dépatouille
avec le bonding !
en cas de doute on peut faire sans mais cela marche bien
options bonding miimon0 mode=4 xmit_hash_policy=layer3+4
je me suis contenté de ça :
options bonding mode=4 miimon0 downdelay 0 updelay 0
Quel est l'intéret du xmit_hash_policy ?
Philippe Weill a écrit :quel type de switch
il en existe avec des firmwares bien pourri
C'est un Dell pc5448, configuré comme ceci :
interface range ethernet g41-44
no switchport mode
channel-group 2 mode auto
interface port-channel 2
switchport mode access
switchport access vlan 9
Je graphe avec snmp mon bond0 sur le serveur et le ch2 sur le switch, et
mes 2 courbes sont cohérentes
pour les perf locales cela donne quoi le systeme de fichier
hem... en fait j'ai pas testé :))
On n'a _aucune_ information. La machine en question tourne avec
knfsd (c'est bien, c'est mieux que unfs ou userland-nfsd).
Que veux-tu savoir exactement ?Je commencerais à mettre un NFSv3/TCP (pas de v4, parce que ce truc
est actuellement inutilisable sous Linux) avec des paquets de 32 Ko.
Je n'ai pas précisé TCP dans l'automonteur... Il me semble que depuis
nfs v3 TCP est utilisé par défaut non ?
Pour ce qui est du V3, est-ce qu'il y a moyen de préciser à nfs de ne
faire que du V3 et rien d'autre ?J'espère que le mode async est activé (parce que sinon ça risque de
ramouiller très fort). Je ne suis vraiment pas sûr que le fait de passer
à 128 threads soit une excellente idée surtout dans le cas d'un daemon
UDP (ça pourrait se justifier en TCP, et encore). Bref :
- 8 threads pour commencer
- mode async pour tout le monde
- NFSv3
oups :
:~$ cat /etc/exports
/data/fae *(rw,sync,no_subtree_check)
coté automonteur, j'ai fais dans la simplicité :
[ ~]$ mount | grep filer1
filer1:/data/fae on /auto/filer1_fae type nfs (rw,addr=x.x.x.x)
Cette machine est destinée à être lourdement sollicitée, et aura besoin
de ses 4gbps de bande passante, donc il _FAUT_ que nfs se dépatouille
avec le bonding !en cas de doute on peut faire sans mais cela marche bien
options bonding miimon0 mode=4 xmit_hash_policy=layer3+4
je me suis contenté de ça :
options bonding mode=4 miimon0 downdelay 0 updelay 0
Quel est l'intéret du xmit_hash_policy ?
Version du noyau (des deux côtés), type de système de fichiers,
options de montages (locales et distantes), type de NFS.
:~$ cat /etc/exports
/data/fae *(rw,sync,no_subtree_check)
Bon, ça n'aide pas.
J'ai toujours fait sans en faisant des sous-réseaux indépendants. Je
ne répondrais donc pas à la question.
Version du noyau (des deux côtés), type de système de fichiers,
options de montages (locales et distantes), type de NFS.
rico@filer1:~$ cat /etc/exports
/data/fae *(rw,sync,no_subtree_check)
Bon, ça n'aide pas.
J'ai toujours fait sans en faisant des sous-réseaux indépendants. Je
ne répondrais donc pas à la question.
Version du noyau (des deux côtés), type de système de fichiers,
options de montages (locales et distantes), type de NFS.
:~$ cat /etc/exports
/data/fae *(rw,sync,no_subtree_check)
Bon, ça n'aide pas.
J'ai toujours fait sans en faisant des sous-réseaux indépendants. Je
ne répondrais donc pas à la question.
On Tue, 09 Jun 2009 16:18:16 +0200, Eric Belhomme
<{rico}+no/:time dd if=/dev/urandom bs=1k count4857600
of=/auto/filer1_fae/test_`uname -n`.dat
Pendant que j'y pense : /dev/urandom est peut-être le goulot
d'étranglement.
Que donne cette ligne ?
time dd if=/dev/urandom bs=1k count4857600 of=/dev/null
On Tue, 09 Jun 2009 16:18:16 +0200, Eric Belhomme
<{rico}+no/spam@ricospirit.net>:
time dd if=/dev/urandom bs=1k count4857600
of=/auto/filer1_fae/test_`uname -n`.dat
Pendant que j'y pense : /dev/urandom est peut-être le goulot
d'étranglement.
Que donne cette ligne ?
time dd if=/dev/urandom bs=1k count4857600 of=/dev/null
On Tue, 09 Jun 2009 16:18:16 +0200, Eric Belhomme
<{rico}+no/:time dd if=/dev/urandom bs=1k count4857600
of=/auto/filer1_fae/test_`uname -n`.dat
Pendant que j'y pense : /dev/urandom est peut-être le goulot
d'étranglement.
Que donne cette ligne ?
time dd if=/dev/urandom bs=1k count4857600 of=/dev/null
en l'occurence, c'est un serveur nfs pour une ferme de calcul, et les
membres de la ferme (une 50 aine de machines) sont déjà isolées dans un
réseau
en l'occurence, c'est un serveur nfs pour une ferme de calcul, et les
membres de la ferme (une 50 aine de machines) sont déjà isolées dans un
réseau
en l'occurence, c'est un serveur nfs pour une ferme de calcul, et les
membres de la ferme (une 50 aine de machines) sont déjà isolées dans un
réseau
Je virerais aussi l'agrégation (je ne sais pas comment un NFS va
utiliser ça, donc dans le doute...).
en cas de doute on peut faire sans mais cela marche bien
options bonding miimon0 mode=4 xmit_hash_policy=layer3+4
Je virerais aussi l'agrégation (je ne sais pas comment un NFS va
utiliser ça, donc dans le doute...).
en cas de doute on peut faire sans mais cela marche bien
options bonding miimon0 mode=4 xmit_hash_policy=layer3+4
Je virerais aussi l'agrégation (je ne sais pas comment un NFS va
utiliser ça, donc dans le doute...).
en cas de doute on peut faire sans mais cela marche bien
options bonding miimon0 mode=4 xmit_hash_policy=layer3+4
sur notre cluster j'ai jamais réussi à obtenir les perf que l'on avait
besoin
en nfs et du coup on est passé en lustre au niveau filesystem
depuis un client ( bond sur deux interfaces )
[ test]$ dd if=/dev/zero of=TOTO bs=1M count240
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB) copied, 56.1089 seconds, 191 MB/s
sur notre cluster j'ai jamais réussi à obtenir les perf que l'on avait
besoin
en nfs et du coup on est passé en lustre au niveau filesystem
depuis un client ( bond sur deux interfaces )
[weill@ciclad3 test]$ dd if=/dev/zero of=TOTO bs=1M count240
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB) copied, 56.1089 seconds, 191 MB/s
sur notre cluster j'ai jamais réussi à obtenir les perf que l'on avait
besoin
en nfs et du coup on est passé en lustre au niveau filesystem
depuis un client ( bond sur deux interfaces )
[ test]$ dd if=/dev/zero of=TOTO bs=1M count240
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB) copied, 56.1089 seconds, 191 MB/s
JKB a écrit :Version du noyau (des deux côtés), type de système de fichiers,
options de montages (locales et distantes), type de NFS.
Le serveur est une Debian Lenny :
filer1:/data/fae# uname -a
Linux filer1 2.6.26-2-amd64 #1 SMP Thu May 28 21:28:49 UTC 2009 x86_64
GNU/Linux
filer1:/data/fae# mount | grep /data
/dev/mapper/vg_filer-data on /data type jfs (rw,errors=remount-ro)
filer1:/data/fae# df -h | grep /data
/dev/mapper/vg_filer-data 6,6T 1,3T 5,4T 19% /data
filer1:/data/fae# dpkg -l | grep nfs-kernel-server
ii nfs-kernel-server 1:1.1.2-6lenny1
Les clients sont des RHEL4 32 et 64 bits :
[ ~]$ uname -a
Linux kapa3.eve 2.6.9-55.ELsmp #1 SMP Fri Apr 20 16:36:54 EDT 2007
x86_64 x86_64 x86_64 GNU/Linux
[ ~]$ mount | grep filer1
filer1:/data/fae on /auto/filer1_fae type nfs
(rw,tcp,rsize2768,wsize2768,addr=x.x.x.x)
:~$ cat /etc/exports
/data/fae *(rw,sync,no_subtree_check)
Bon, ça n'aide pas.
certes ! c'est corrigéJ'ai toujours fait sans en faisant des sous-réseaux indépendants. Je
ne répondrais donc pas à la question.
en l'occurence, c'est un serveur nfs pour une ferme de calcul, et les
membres de la ferme (une 50 aine de machines) sont déjà isolées dans un
réseau
JKB a écrit :
Version du noyau (des deux côtés), type de système de fichiers,
options de montages (locales et distantes), type de NFS.
Le serveur est une Debian Lenny :
filer1:/data/fae# uname -a
Linux filer1 2.6.26-2-amd64 #1 SMP Thu May 28 21:28:49 UTC 2009 x86_64
GNU/Linux
filer1:/data/fae# mount | grep /data
/dev/mapper/vg_filer-data on /data type jfs (rw,errors=remount-ro)
filer1:/data/fae# df -h | grep /data
/dev/mapper/vg_filer-data 6,6T 1,3T 5,4T 19% /data
filer1:/data/fae# dpkg -l | grep nfs-kernel-server
ii nfs-kernel-server 1:1.1.2-6lenny1
Les clients sont des RHEL4 32 et 64 bits :
[rico@kapa3 ~]$ uname -a
Linux kapa3.eve 2.6.9-55.ELsmp #1 SMP Fri Apr 20 16:36:54 EDT 2007
x86_64 x86_64 x86_64 GNU/Linux
[rico@kapa3 ~]$ mount | grep filer1
filer1:/data/fae on /auto/filer1_fae type nfs
(rw,tcp,rsize2768,wsize2768,addr=x.x.x.x)
rico@filer1:~$ cat /etc/exports
/data/fae *(rw,sync,no_subtree_check)
Bon, ça n'aide pas.
certes ! c'est corrigé
J'ai toujours fait sans en faisant des sous-réseaux indépendants. Je
ne répondrais donc pas à la question.
en l'occurence, c'est un serveur nfs pour une ferme de calcul, et les
membres de la ferme (une 50 aine de machines) sont déjà isolées dans un
réseau
JKB a écrit :Version du noyau (des deux côtés), type de système de fichiers,
options de montages (locales et distantes), type de NFS.
Le serveur est une Debian Lenny :
filer1:/data/fae# uname -a
Linux filer1 2.6.26-2-amd64 #1 SMP Thu May 28 21:28:49 UTC 2009 x86_64
GNU/Linux
filer1:/data/fae# mount | grep /data
/dev/mapper/vg_filer-data on /data type jfs (rw,errors=remount-ro)
filer1:/data/fae# df -h | grep /data
/dev/mapper/vg_filer-data 6,6T 1,3T 5,4T 19% /data
filer1:/data/fae# dpkg -l | grep nfs-kernel-server
ii nfs-kernel-server 1:1.1.2-6lenny1
Les clients sont des RHEL4 32 et 64 bits :
[ ~]$ uname -a
Linux kapa3.eve 2.6.9-55.ELsmp #1 SMP Fri Apr 20 16:36:54 EDT 2007
x86_64 x86_64 x86_64 GNU/Linux
[ ~]$ mount | grep filer1
filer1:/data/fae on /auto/filer1_fae type nfs
(rw,tcp,rsize2768,wsize2768,addr=x.x.x.x)
:~$ cat /etc/exports
/data/fae *(rw,sync,no_subtree_check)
Bon, ça n'aide pas.
certes ! c'est corrigéJ'ai toujours fait sans en faisant des sous-réseaux indépendants. Je
ne répondrais donc pas à la question.
en l'occurence, c'est un serveur nfs pour une ferme de calcul, et les
membres de la ferme (une 50 aine de machines) sont déjà isolées dans un
réseau
Philippe Weill a écrit :Je virerais aussi l'agrégation (je ne sais pas comment un NFS va
utiliser ça, donc dans le doute...).
en cas de doute on peut faire sans mais cela marche bien
options bonding miimon0 mode=4 xmit_hash_policy=layer3+4
Je me disais aussi qu'un peu de contro lde traffic ne pourrait nuire...
Que pensez-vous de mettre un classificateur simple, genre sfq, afin de
répartir équitablement la bande passante ? Y a-t-il des contres
indications avec nfs ?
Philippe Weill a écrit :
Je virerais aussi l'agrégation (je ne sais pas comment un NFS va
utiliser ça, donc dans le doute...).
en cas de doute on peut faire sans mais cela marche bien
options bonding miimon0 mode=4 xmit_hash_policy=layer3+4
Je me disais aussi qu'un peu de contro lde traffic ne pourrait nuire...
Que pensez-vous de mettre un classificateur simple, genre sfq, afin de
répartir équitablement la bande passante ? Y a-t-il des contres
indications avec nfs ?
Philippe Weill a écrit :Je virerais aussi l'agrégation (je ne sais pas comment un NFS va
utiliser ça, donc dans le doute...).
en cas de doute on peut faire sans mais cela marche bien
options bonding miimon0 mode=4 xmit_hash_policy=layer3+4
Je me disais aussi qu'un peu de contro lde traffic ne pourrait nuire...
Que pensez-vous de mettre un classificateur simple, genre sfq, afin de
répartir équitablement la bande passante ? Y a-t-il des contres
indications avec nfs ?
Philippe Weill a écrit :
sur notre cluster j'ai jamais réussi à obtenir les perf que l'on avait
besoin
en nfs et du coup on est passé en lustre au niveau filesystem
depuis un client ( bond sur deux interfaces )
[ test]$ dd if=/dev/zero of=TOTO bs=1M count240
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB) copied, 56.1089 seconds, 191 MB/s
LUSTRE sous linux ??? comment ?
Philippe Weill a écrit :
sur notre cluster j'ai jamais réussi à obtenir les perf que l'on avait
besoin
en nfs et du coup on est passé en lustre au niveau filesystem
depuis un client ( bond sur deux interfaces )
[weill@ciclad3 test]$ dd if=/dev/zero of=TOTO bs=1M count240
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB) copied, 56.1089 seconds, 191 MB/s
LUSTRE sous linux ??? comment ?
Philippe Weill a écrit :
sur notre cluster j'ai jamais réussi à obtenir les perf que l'on avait
besoin
en nfs et du coup on est passé en lustre au niveau filesystem
depuis un client ( bond sur deux interfaces )
[ test]$ dd if=/dev/zero of=TOTO bs=1M count240
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB) copied, 56.1089 seconds, 191 MB/s
LUSTRE sous linux ??? comment ?