Je suis pas très à l'aise pour débogger ce genre de troubles sous Linux,
donc tout conseil/méthodologie sera la bienvenue, merci
Je suis pas très à l'aise pour débogger ce genre de troubles sous Linux,
donc tout conseil/méthodologie sera la bienvenue, merci
Je suis pas très à l'aise pour débogger ce genre de troubles sous Linux,
donc tout conseil/méthodologie sera la bienvenue, merci
Je commencerais par utiliser "iostat -mx 2" pour visualiser l'activité
disque au niveau système. Ensuite, il faut voir ce que ça raconte :)
Comme le contrôleur RAID a été changé : est-ce que le firmware est en
même version? Si le firmware a pu changer, normalement sur les 3Ware
forcer un verify devrait rectifier le problème.
Vérifier aussi le cache : s'il est passé de write-back en write-thru, il
est normal que les perfs s'écroulent.
Je commencerais par utiliser "iostat -mx 2" pour visualiser l'activité
disque au niveau système. Ensuite, il faut voir ce que ça raconte :)
Comme le contrôleur RAID a été changé : est-ce que le firmware est en
même version? Si le firmware a pu changer, normalement sur les 3Ware
forcer un verify devrait rectifier le problème.
Vérifier aussi le cache : s'il est passé de write-back en write-thru, il
est normal que les perfs s'écroulent.
Je commencerais par utiliser "iostat -mx 2" pour visualiser l'activité
disque au niveau système. Ensuite, il faut voir ce que ça raconte :)
Comme le contrôleur RAID a été changé : est-ce que le firmware est en
même version? Si le firmware a pu changer, normalement sur les 3Ware
forcer un verify devrait rectifier le problème.
Vérifier aussi le cache : s'il est passé de write-back en write-thru, il
est normal que les perfs s'écroulent.
Je commencerais par utiliser "iostat -mx 2" pour visualiser l'activité
disque au niveau système. Ensuite, il faut voir ce que ça raconte
Je commencerais par utiliser "iostat -mx 2" pour visualiser l'activité
disque au niveau système. Ensuite, il faut voir ce que ça raconte
Je commencerais par utiliser "iostat -mx 2" pour visualiser l'activité
disque au niveau système. Ensuite, il faut voir ce que ça raconte
Bah j'ai qu'un seul mode pour le write cache : on ou off !!! T'as vu ça
où qu'on pouvait faire du write-back ou write-thru ?
Bah j'ai qu'un seul mode pour le write cache : on ou off !!! T'as vu ça
où qu'on pouvait faire du write-back ou write-thru ?
Bah j'ai qu'un seul mode pour le write cache : on ou off !!! T'as vu ça
où qu'on pouvait faire du write-back ou write-thru ?
sda3 0.00 101.50 0.00 452.50 0.00 3.84
17.40 188.95 400.76 2.21 100.00
sda3 0.00 101.50 0.00 452.50 0.00 3.84
17.40 188.95 400.76 2.21 100.00
sda3 0.00 101.50 0.00 452.50 0.00 3.84
17.40 188.95 400.76 2.21 100.00
Le Tue, 02 Aug 2011 08:35:51 +0000, Eric Belhomme a écrit:sda3 0.00 101.50 0.00 452.50 0.00 3.84 17.40
188.95 400.76 2.21 100.00
Déjà on voit que le device est couramment marqué à 100% d'utilisation,
c'est mauvais signe. Il n'y a que des écritures ou presque, Les
écritures sont toutes petites ( 450 écritures donnent moins de 4
Mo/s...), les merges sont peu nombreux... bref c'est du 100% small IO
random write, le pire scénario possible pour faire du RAID-6, surtout
avec un stripe size beaucoup plus gros que l'IO type. En fait ce qui
serait surprenant ce serait d'obtenir une perf correcte :)
Une dernière possibilité, peut-être que le système de fichier est
atrocement fragmenté? Que donne un
xfs_db -r -c "frag" /dev/XXX
Le Tue, 02 Aug 2011 08:35:51 +0000, Eric Belhomme a écrit:
sda3 0.00 101.50 0.00 452.50 0.00 3.84 17.40
188.95 400.76 2.21 100.00
Déjà on voit que le device est couramment marqué à 100% d'utilisation,
c'est mauvais signe. Il n'y a que des écritures ou presque, Les
écritures sont toutes petites ( 450 écritures donnent moins de 4
Mo/s...), les merges sont peu nombreux... bref c'est du 100% small IO
random write, le pire scénario possible pour faire du RAID-6, surtout
avec un stripe size beaucoup plus gros que l'IO type. En fait ce qui
serait surprenant ce serait d'obtenir une perf correcte :)
Une dernière possibilité, peut-être que le système de fichier est
atrocement fragmenté? Que donne un
xfs_db -r -c "frag" /dev/XXX
Le Tue, 02 Aug 2011 08:35:51 +0000, Eric Belhomme a écrit:sda3 0.00 101.50 0.00 452.50 0.00 3.84 17.40
188.95 400.76 2.21 100.00
Déjà on voit que le device est couramment marqué à 100% d'utilisation,
c'est mauvais signe. Il n'y a que des écritures ou presque, Les
écritures sont toutes petites ( 450 écritures donnent moins de 4
Mo/s...), les merges sont peu nombreux... bref c'est du 100% small IO
random write, le pire scénario possible pour faire du RAID-6, surtout
avec un stripe size beaucoup plus gros que l'IO type. En fait ce qui
serait surprenant ce serait d'obtenir une perf correcte :)
Une dernière possibilité, peut-être que le système de fichier est
atrocement fragmenté? Que donne un
xfs_db -r -c "frag" /dev/XXX
Selon toi quel serait le niveau de RAID le plus adapté à cette
utilisation, sachant que la carte gère 12 disques SATA ?
Une dernière possibilité, peut-être que le système de fichier est
atrocement fragmenté? Que donne un
xfs_db -r -c "frag" /dev/XXX
sudo xfs_db -r -c "frag" /dev/mapper/vg_dove-bagpuss actual 39351511,
ideal 35621259, fragmentation factor 9.48%
10%, c'est pas anodin, mais c'est pas non plus catastrophique.
Selon toi quel serait le niveau de RAID le plus adapté à cette
utilisation, sachant que la carte gère 12 disques SATA ?
Une dernière possibilité, peut-être que le système de fichier est
atrocement fragmenté? Que donne un
xfs_db -r -c "frag" /dev/XXX
sudo xfs_db -r -c "frag" /dev/mapper/vg_dove-bagpuss actual 39351511,
ideal 35621259, fragmentation factor 9.48%
10%, c'est pas anodin, mais c'est pas non plus catastrophique.
Selon toi quel serait le niveau de RAID le plus adapté à cette
utilisation, sachant que la carte gère 12 disques SATA ?
Une dernière possibilité, peut-être que le système de fichier est
atrocement fragmenté? Que donne un
xfs_db -r -c "frag" /dev/XXX
sudo xfs_db -r -c "frag" /dev/mapper/vg_dove-bagpuss actual 39351511,
ideal 35621259, fragmentation factor 9.48%
10%, c'est pas anodin, mais c'est pas non plus catastrophique.
RAID-10, bien sûr. Vu que les IO font dans les 10 K ( sûrement 8 K si
c'est une base de données), un stripe de 16K serait suffisant. Sans
oublier de monter le filesystem avec l'option lazycount=1 pour minimiser
l'activité du journal.
RAID-10, bien sûr. Vu que les IO font dans les 10 K ( sûrement 8 K si
c'est une base de données), un stripe de 16K serait suffisant. Sans
oublier de monter le filesystem avec l'option lazycount=1 pour minimiser
l'activité du journal.
RAID-10, bien sûr. Vu que les IO font dans les 10 K ( sûrement 8 K si
c'est une base de données), un stripe de 16K serait suffisant. Sans
oublier de monter le filesystem avec l'option lazycount=1 pour minimiser
l'activité du journal.
en RAID10 j'ai un "rendement" de seulement 50% sur la capacité disque,
alors que je cherche à maximiser les perfs mais aussi la capacité... Si
je passe en RAID10, je vais passer de 9T à 5T :-/
en RAID10 j'ai un "rendement" de seulement 50% sur la capacité disque,
alors que je cherche à maximiser les perfs mais aussi la capacité... Si
je passe en RAID10, je vais passer de 9T à 5T :-/
en RAID10 j'ai un "rendement" de seulement 50% sur la capacité disque,
alors que je cherche à maximiser les perfs mais aussi la capacité... Si
je passe en RAID10, je vais passer de 9T à 5T :-/
Certes, mais le RAID-6 sous-performe en écriture, pas le RAID-10. On ne
peut pas avoir le beurre et l'argent du beurre :) Ou alors, il faut
faire uniquement de longues écritures avec de gros blocs mais ça, ça
dépend de l'application, ou alors il faut accepter une politique de
cache en écriture très aggressive (et dangereuse, bien sûr).
Certes, mais le RAID-6 sous-performe en écriture, pas le RAID-10. On ne
peut pas avoir le beurre et l'argent du beurre :) Ou alors, il faut
faire uniquement de longues écritures avec de gros blocs mais ça, ça
dépend de l'application, ou alors il faut accepter une politique de
cache en écriture très aggressive (et dangereuse, bien sûr).
Certes, mais le RAID-6 sous-performe en écriture, pas le RAID-10. On ne
peut pas avoir le beurre et l'argent du beurre :) Ou alors, il faut
faire uniquement de longues écritures avec de gros blocs mais ça, ça
dépend de l'application, ou alors il faut accepter une politique de
cache en écriture très aggressive (et dangereuse, bien sûr).