Bonjour,
Je suis passé de Sarge à Etch récemment et tout va presque bien. Sur
Sarge, j'avais un noyau 2.6.8 et je bootais sur mon raid1 logiciel.
Depuis que je suis passé à Etch, je peux toujours le faire en gardant
ce noyau, mais dès que je veux passer au noyau 2.6.18 (noyau standard
pour Etch...), ça ne fonctionne plus : le boot plante...
Au démarrage, il me dit qu'il ne peut pas monter /dev/md0 dans /root.
En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).
Bonjour,
Je suis passé de Sarge à Etch récemment et tout va presque bien. Sur
Sarge, j'avais un noyau 2.6.8 et je bootais sur mon raid1 logiciel.
Depuis que je suis passé à Etch, je peux toujours le faire en gardant
ce noyau, mais dès que je veux passer au noyau 2.6.18 (noyau standard
pour Etch...), ça ne fonctionne plus : le boot plante...
Au démarrage, il me dit qu'il ne peut pas monter /dev/md0 dans /root.
En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).
Bonjour,
Je suis passé de Sarge à Etch récemment et tout va presque bien. Sur
Sarge, j'avais un noyau 2.6.8 et je bootais sur mon raid1 logiciel.
Depuis que je suis passé à Etch, je peux toujours le faire en gardant
ce noyau, mais dès que je veux passer au noyau 2.6.18 (noyau standard
pour Etch...), ça ne fonctionne plus : le boot plante...
Au démarrage, il me dit qu'il ne peut pas monter /dev/md0 dans /root.
En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).
En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).
Es tu bien sur que ton Raid sous Sarge est bien construit avec du sda et
non du _hda_?
En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).
Es tu bien sur que ton Raid sous Sarge est bien construit avec du sda et
non du _hda_?
En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).
Es tu bien sur que ton Raid sous Sarge est bien construit avec du sda et
non du _hda_?
Pour commencer, merci de t'intéresser à mon problème ;)En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).Es tu bien sur que ton Raid sous Sarge est bien construit avec du sda
et non du _hda_?
Apparemment oui. Si je ne me trompe pas, un "cat /proc/mdstat" répond
à cette question. Voici le résultat
Personalities : [raid0] [raid1] [raid5]
md1 : active raid1 sda3[0] sdb3[1]
203182016 blocks [2/2] [UU]
md0 : active raid1 sda1[0] sdb1[1]
39061952 blocks [2/2] [UU]
unused devices: <none>
Suis-je bien dans le juste?
Pour commencer, merci de t'intéresser à mon problème ;)
En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).
Es tu bien sur que ton Raid sous Sarge est bien construit avec du sda
et non du _hda_?
Apparemment oui. Si je ne me trompe pas, un "cat /proc/mdstat" répond
à cette question. Voici le résultat
Personalities : [raid0] [raid1] [raid5]
md1 : active raid1 sda3[0] sdb3[1]
203182016 blocks [2/2] [UU]
md0 : active raid1 sda1[0] sdb1[1]
39061952 blocks [2/2] [UU]
unused devices: <none>
Suis-je bien dans le juste?
Pour commencer, merci de t'intéresser à mon problème ;)En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).Es tu bien sur que ton Raid sous Sarge est bien construit avec du sda
et non du _hda_?
Apparemment oui. Si je ne me trompe pas, un "cat /proc/mdstat" répond
à cette question. Voici le résultat
Personalities : [raid0] [raid1] [raid5]
md1 : active raid1 sda3[0] sdb3[1]
203182016 blocks [2/2] [UU]
md0 : active raid1 sda1[0] sdb1[1]
39061952 blocks [2/2] [UU]
unused devices: <none>
Suis-je bien dans le juste?
> C'est bon, y'a juste les raid0 et raid5 dans personalities qui me
smblent deplaces. Es tu sur que ton noyau ETCH -le nouveau donc ;-)-
inclu bien la gestion du raid?
> C'est bon, y'a juste les raid0 et raid5 dans personalities qui me
smblent deplaces. Es tu sur que ton noyau ETCH -le nouveau donc ;-)-
inclu bien la gestion du raid?
> C'est bon, y'a juste les raid0 et raid5 dans personalities qui me
smblent deplaces. Es tu sur que ton noyau ETCH -le nouveau donc ;-)-
inclu bien la gestion du raid?
C'est bon, y'a juste les raid0 et raid5 dans personalities qui me
smblent deplaces. Es tu sur que ton noyau ETCH -le nouveau donc ;-)-
inclu bien la gestion du raid?
À priori, je dirais oui. Je me base sur le fichier /boot/config pour
déterminer ça:
Dans le nouveau config-2.6.18-4-k7:
#
# Multi-device support (RAID and LVM)
#
CONFIG_MD=y
CONFIG_BLK_DEV_MD=m
CONFIG_MD_LINEAR=m
CONFIG_MD_RAID0=m
CONFIG_MD_RAID1=m
CONFIG_MD_RAID10=m
CONFIG_MD_RAID456=m
CONFIG_MD_RAID5_RESHAPE=y
CONFIG_MD_MULTIPATH=m
CONFIG_MD_FAULTY=m
CONFIG_BLK_DEV_DM=m
CONFIG_DM_CRYPT=m
CONFIG_DM_SNAPSHOT=m
CONFIG_DM_MIRROR=m
CONFIG_DM_ZERO=m
CONFIG_DM_MULTIPATH=m
CONFIG_DM_MULTIPATH_EMC=m
Dans l'ancien config-2.6.8-2-386:
#
# Multi-device support (RAID and LVM)
#
CONFIG_MD=y
CONFIG_BLK_DEV_MD=m
CONFIG_MD_LINEAR=m
CONFIG_MD_RAID0=m
CONFIG_MD_RAID1=m
CONFIG_MD_RAID5=m
CONFIG_MD_RAID6=m
CONFIG_MD_MULTIPATH=m
CONFIG_BLK_DEV_DM=m
CONFIG_DM_CRYPT=m
CONFIG_DM_SNAPSHOT=m
CONFIG_DM_MIRROR=m
CONFIG_DM_ZERO=m
Le MD est donc en dur dans les deux cas et le RAID1 est en module dans
les deux cas...
C'est bon, y'a juste les raid0 et raid5 dans personalities qui me
smblent deplaces. Es tu sur que ton noyau ETCH -le nouveau donc ;-)-
inclu bien la gestion du raid?
À priori, je dirais oui. Je me base sur le fichier /boot/config pour
déterminer ça:
Dans le nouveau config-2.6.18-4-k7:
#
# Multi-device support (RAID and LVM)
#
CONFIG_MD=y
CONFIG_BLK_DEV_MD=m
CONFIG_MD_LINEAR=m
CONFIG_MD_RAID0=m
CONFIG_MD_RAID1=m
CONFIG_MD_RAID10=m
CONFIG_MD_RAID456=m
CONFIG_MD_RAID5_RESHAPE=y
CONFIG_MD_MULTIPATH=m
CONFIG_MD_FAULTY=m
CONFIG_BLK_DEV_DM=m
CONFIG_DM_CRYPT=m
CONFIG_DM_SNAPSHOT=m
CONFIG_DM_MIRROR=m
CONFIG_DM_ZERO=m
CONFIG_DM_MULTIPATH=m
CONFIG_DM_MULTIPATH_EMC=m
Dans l'ancien config-2.6.8-2-386:
#
# Multi-device support (RAID and LVM)
#
CONFIG_MD=y
CONFIG_BLK_DEV_MD=m
CONFIG_MD_LINEAR=m
CONFIG_MD_RAID0=m
CONFIG_MD_RAID1=m
CONFIG_MD_RAID5=m
CONFIG_MD_RAID6=m
CONFIG_MD_MULTIPATH=m
CONFIG_BLK_DEV_DM=m
CONFIG_DM_CRYPT=m
CONFIG_DM_SNAPSHOT=m
CONFIG_DM_MIRROR=m
CONFIG_DM_ZERO=m
Le MD est donc en dur dans les deux cas et le RAID1 est en module dans
les deux cas...
C'est bon, y'a juste les raid0 et raid5 dans personalities qui me
smblent deplaces. Es tu sur que ton noyau ETCH -le nouveau donc ;-)-
inclu bien la gestion du raid?
À priori, je dirais oui. Je me base sur le fichier /boot/config pour
déterminer ça:
Dans le nouveau config-2.6.18-4-k7:
#
# Multi-device support (RAID and LVM)
#
CONFIG_MD=y
CONFIG_BLK_DEV_MD=m
CONFIG_MD_LINEAR=m
CONFIG_MD_RAID0=m
CONFIG_MD_RAID1=m
CONFIG_MD_RAID10=m
CONFIG_MD_RAID456=m
CONFIG_MD_RAID5_RESHAPE=y
CONFIG_MD_MULTIPATH=m
CONFIG_MD_FAULTY=m
CONFIG_BLK_DEV_DM=m
CONFIG_DM_CRYPT=m
CONFIG_DM_SNAPSHOT=m
CONFIG_DM_MIRROR=m
CONFIG_DM_ZERO=m
CONFIG_DM_MULTIPATH=m
CONFIG_DM_MULTIPATH_EMC=m
Dans l'ancien config-2.6.8-2-386:
#
# Multi-device support (RAID and LVM)
#
CONFIG_MD=y
CONFIG_BLK_DEV_MD=m
CONFIG_MD_LINEAR=m
CONFIG_MD_RAID0=m
CONFIG_MD_RAID1=m
CONFIG_MD_RAID5=m
CONFIG_MD_RAID6=m
CONFIG_MD_MULTIPATH=m
CONFIG_BLK_DEV_DM=m
CONFIG_DM_CRYPT=m
CONFIG_DM_SNAPSHOT=m
CONFIG_DM_MIRROR=m
CONFIG_DM_ZERO=m
Le MD est donc en dur dans les deux cas et le RAID1 est en module dans
les deux cas...
> Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf est
il conforme?
> Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf est
il conforme?
> Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf est
il conforme?
Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?
Pour vérifier la présence du module, cat /proc/modules|grep raid me
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
....
ARRAY /dev/md0 level=raid1 num-devices=2
UUID‚7b4f5b:b4dbf29f:3eede8cd:cc70c1ca
devices=/dev/sda1,/dev/sdb1
Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?
Pour vérifier la présence du module, cat /proc/modules|grep raid me
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
....
ARRAY /dev/md0 level=raid1 num-devices=2
UUID=827b4f5b:b4dbf29f:3eede8cd:cc70c1ca
devices=/dev/sda1,/dev/sdb1
Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?
Pour vérifier la présence du module, cat /proc/modules|grep raid me
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
....
ARRAY /dev/md0 level=raid1 num-devices=2
UUID‚7b4f5b:b4dbf29f:3eede8cd:cc70c1ca
devices=/dev/sda1,/dev/sdb1
Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?
Pour vérifier la présence du module, cat /proc/modules|grep raid me
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?
Pour vérifier la présence du module, cat /proc/modules|grep raid me
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?
Pour vérifier la présence du module, cat /proc/modules|grep raid me
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
> o_O, j'ai pas suivi le thread, mais il-y-a un HD kicked out de
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
Ce qui est illogique est qu'il essaye de construire un espace raid avec
sda0 (existe d'ailleurs?) au lieu de sda[123]. Essaye d'assembler
manuellement les espaces raid
> o_O, j'ai pas suivi le thread, mais il-y-a un HD kicked out de
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
Ce qui est illogique est qu'il essaye de construire un espace raid avec
sda0 (existe d'ailleurs?) au lieu de sda[123]. Essaye d'assembler
manuellement les espaces raid
> o_O, j'ai pas suivi le thread, mais il-y-a un HD kicked out de
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
Ce qui est illogique est qu'il essaye de construire un espace raid avec
sda0 (existe d'ailleurs?) au lieu de sda[123]. Essaye d'assembler
manuellement les espaces raid
Guillaume78fr wrote:Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?
Pour vérifier la présence du module, cat /proc/modules|grep raid m e
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
Ce qui est illogique est qu'il essaye de construire un espace raid avec
sda0 (existe d'ailleurs?) au lieu de sda[123]. Essaye d'assembler
manuellement les espaces raid
Guillaume78fr wrote:
Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?
Pour vérifier la présence du module, cat /proc/modules|grep raid m e
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
Ce qui est illogique est qu'il essaye de construire un espace raid avec
sda0 (existe d'ailleurs?) au lieu de sda[123]. Essaye d'assembler
manuellement les espaces raid
Guillaume78fr wrote:Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?
Pour vérifier la présence du module, cat /proc/modules|grep raid m e
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor
Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]
Ce qui est illogique est qu'il essaye de construire un espace raid avec
sda0 (existe d'ailleurs?) au lieu de sda[123]. Essaye d'assembler
manuellement les espaces raid