pb de boot sur raid1 logiciel depuis passage à etch...

Le
Guillaume78fr
Bonjour,

Je suis passé de Sarge à Etch récemment et tout va presque bien. Sur
Sarge, j'avais un noyau 2.6.8 et je bootais sur mon raid1 logiciel.

Depuis que je suis passé à Etch, je peux toujours le faire en gardant ce
noyau, mais dès que je veux passer au noyau 2.6.18 (noyau standard pour
Etch), ça ne fonctionne plus : le boot plante

Au démarrage, il me dit qu'il ne peut pas monter /dev/md0 dans /root.

En y regardant d'un peu plus près, mon array est normalement composé de
/dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas construire
l'array, car bien qu'il détecte les disques /dev/sda et /dev/sdb, il ne
détecte pas les partitions qui sont dessus (sda[1-3] et sdb[1-3]).

J'ai fait tout ce que j'ai pu (y compris suivre les releases notes
concernant l'upgrade de version), mais rien à faire.

Quelqu'un aurait-il déjà vu ce problème?
À défaut, quelqu'un aurait-il une idée sur le problème?

D'avance merci

Guillaume

PS : je pense que le problème vient d'udev, mais je ne vois franchement
pas où est l'erreur
PS2: mes deux noyaux (2.6.8 et 2.6.18) sont ceux fournis par les paquets
linux-image-2.6


--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.net/?DebianFrench
Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et
"Reply-To:"

To UNSUBSCRIBE, email to debian-user-french-REQUEST@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmaster@lists.debian.org
Vidéos High-Tech et Jeu Vidéo
Téléchargements
Vos réponses Page 1 / 3
Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Daniel Huhardeaux
Le #9579791
Guillaume78fr wrote:
Bonjour,


Bonsoir

Je suis passé de Sarge à Etch récemment et tout va presque bien. Sur
Sarge, j'avais un noyau 2.6.8 et je bootais sur mon raid1 logiciel.

Depuis que je suis passé à Etch, je peux toujours le faire en gardant
ce noyau, mais dès que je veux passer au noyau 2.6.18 (noyau standard
pour Etch...), ça ne fonctionne plus : le boot plante...

Au démarrage, il me dit qu'il ne peut pas monter /dev/md0 dans /root.

En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).


Es tu bien sur que ton Raid sous Sarge est bien construit avec du sda et
non du _hda_?

--
Daniel Huhardeaux _____ ____ ____ _____ _____ _
enum +48 22 434 6431 (_ __) _ ) _ (_ __) _ _(_)
iaxtel 1-700-849-6983 / / / // / // / / / / /_/ / /
sip/iax:callto /_/ ( ___( ___/ /_/ (_/ (_/_/.net FWD# 422493


--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.net/?DebianFrench
Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et
"Reply-To:"

To UNSUBSCRIBE, email to
with a subject of "unsubscribe". Trouble? Contact
Guillaume78fr
Le #9579761
Pour commencer, merci de t'intéresser à mon problème ;)

En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).





Es tu bien sur que ton Raid sous Sarge est bien construit avec du sda et
non du _hda_?



Apparemment oui. Si je ne me trompe pas, un "cat /proc/mdstat" répond à
cette question. Voici le résultat

Personalities : [raid0] [raid1] [raid5]
md1 : active raid1 sda3[0] sdb3[1]
203182016 blocks [2/2] [UU]

md0 : active raid1 sda1[0] sdb1[1]
39061952 blocks [2/2] [UU]

unused devices: <none>

Suis-je bien dans le juste?

Guillaume


--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.net/?DebianFrench
Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et
"Reply-To:"

To UNSUBSCRIBE, email to
with a subject of "unsubscribe". Trouble? Contact
Daniel Huhardeaux
Le #9579751
Guillaume78fr wrote:
Pour commencer, merci de t'intéresser à mon problème ;)

En y regardant d'un peu plus près, mon array est normalement composé
de /dev/sda1 et /dev/sdb1. Le problème, c'est que je ne peux pas
construire l'array, car bien qu'il détecte les disques /dev/sda et
/dev/sdb, il ne détecte pas les partitions qui sont dessus (sda[1-3]
et sdb[1-3]).





Es tu bien sur que ton Raid sous Sarge est bien construit avec du sda
et non du _hda_?



Apparemment oui. Si je ne me trompe pas, un "cat /proc/mdstat" répond
à cette question. Voici le résultat

Personalities : [raid0] [raid1] [raid5]
md1 : active raid1 sda3[0] sdb3[1]
203182016 blocks [2/2] [UU]

md0 : active raid1 sda1[0] sdb1[1]
39061952 blocks [2/2] [UU]

unused devices: <none>

Suis-je bien dans le juste?


C'est bon, y'a juste les raid0 et raid5 dans personalities qui me
smblent deplaces. Es tu sur que ton noyau ETCH -le nouveau donc ;-)-
inclu bien la gestion du raid?

--
Daniel Huhardeaux _____ ____ ____ _____ _____ _
enum +48 22 434 6431 (_ __) _ ) _ (_ __) _ _(_)
iaxtel 1-700-849-6983 / / / // / // / / / / /_/ / /
sip/iax:callto /_/ ( ___( ___/ /_/ (_/ (_/_/.net FWD# 422493


--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.net/?DebianFrench
Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et
"Reply-To:"

To UNSUBSCRIBE, email to
with a subject of "unsubscribe". Trouble? Contact
guillaume78fr
Le #9579701
> C'est bon, y'a juste les raid0 et raid5 dans personalities qui me
smblent deplaces. Es tu sur que ton noyau ETCH -le nouveau donc ;-)-
inclu bien la gestion du raid?



À priori, je dirais oui. Je me base sur le fichier /boot/config pour
déterminer ça:

Dans le nouveau config-2.6.18-4-k7:
#
# Multi-device support (RAID and LVM)
#
CONFIG_MD=y
CONFIG_BLK_DEV_MD=m
CONFIG_MD_LINEAR=m
CONFIG_MD_RAID0=m
CONFIG_MD_RAID1=m
CONFIG_MD_RAID10=m
CONFIG_MD_RAID456=m
CONFIG_MD_RAID5_RESHAPE=y
CONFIG_MD_MULTIPATH=m
CONFIG_MD_FAULTY=m
CONFIG_BLK_DEV_DM=m
CONFIG_DM_CRYPT=m
CONFIG_DM_SNAPSHOT=m
CONFIG_DM_MIRROR=m
CONFIG_DM_ZERO=m
CONFIG_DM_MULTIPATH=m
CONFIG_DM_MULTIPATH_EMC=m


Dans l'ancien config-2.6.8-2-386:
#
# Multi-device support (RAID and LVM)
#
CONFIG_MD=y
CONFIG_BLK_DEV_MD=m
CONFIG_MD_LINEAR=m
CONFIG_MD_RAID0=m
CONFIG_MD_RAID1=m
CONFIG_MD_RAID5=m
CONFIG_MD_RAID6=m
CONFIG_MD_MULTIPATH=m
CONFIG_BLK_DEV_DM=m
CONFIG_DM_CRYPT=m
CONFIG_DM_SNAPSHOT=m
CONFIG_DM_MIRROR=m
CONFIG_DM_ZERO=m

Le MD est donc en dur dans les deux cas et le RAID1 est en module dans
les deux cas...

Quant au raid0 et raid5 dans les personalities, je pense qu'il faudrait
que je compile mon propre noyau avec juste ce qu'il faut. Cependant, je
plutôt preneur des noyaux tout fait, car en théorie, toutes les options
qui me sont nécessaires sont déjà pris en compte. Etant donné que tout
fonctionne bien, je ne cherche pas l'optimisation à tout prix... ;)

Guillaume


--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.net/?DebianFrench
Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et
"Reply-To:"

To UNSUBSCRIBE, email to
with a subject of "unsubscribe". Trouble? Contact
Daniel Huhardeaux
Le #9579411
guillaume78fr wrote:
C'est bon, y'a juste les raid0 et raid5 dans personalities qui me
smblent deplaces. Es tu sur que ton noyau ETCH -le nouveau donc ;-)-
inclu bien la gestion du raid?



À priori, je dirais oui. Je me base sur le fichier /boot/config pour
déterminer ça:

Dans le nouveau config-2.6.18-4-k7:
#
# Multi-device support (RAID and LVM)
#
CONFIG_MD=y
CONFIG_BLK_DEV_MD=m
CONFIG_MD_LINEAR=m
CONFIG_MD_RAID0=m
CONFIG_MD_RAID1=m
CONFIG_MD_RAID10=m
CONFIG_MD_RAID456=m
CONFIG_MD_RAID5_RESHAPE=y
CONFIG_MD_MULTIPATH=m
CONFIG_MD_FAULTY=m
CONFIG_BLK_DEV_DM=m
CONFIG_DM_CRYPT=m
CONFIG_DM_SNAPSHOT=m
CONFIG_DM_MIRROR=m
CONFIG_DM_ZERO=m
CONFIG_DM_MULTIPATH=m
CONFIG_DM_MULTIPATH_EMC=m


Dans l'ancien config-2.6.8-2-386:
#
# Multi-device support (RAID and LVM)
#
CONFIG_MD=y
CONFIG_BLK_DEV_MD=m
CONFIG_MD_LINEAR=m
CONFIG_MD_RAID0=m
CONFIG_MD_RAID1=m
CONFIG_MD_RAID5=m
CONFIG_MD_RAID6=m
CONFIG_MD_MULTIPATH=m
CONFIG_BLK_DEV_DM=m
CONFIG_DM_CRYPT=m
CONFIG_DM_SNAPSHOT=m
CONFIG_DM_MIRROR=m
CONFIG_DM_ZERO=m

Le MD est donc en dur dans les deux cas et le RAID1 est en module dans
les deux cas...


Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf est
il conforme?

--
Daniel Huhardeaux _____ ____ ____ _____ _____ _
enum +48 22 434 6431 (_ __) _ ) _ (_ __) _ _(_)
iaxtel 1-700-849-6983 / / / // / // / / / / /_/ / /
sip/iax:callto /_/ ( ___( ___/ /_/ (_/ (_/_/.net FWD# 422493


--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.net/?DebianFrench
Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et
"Reply-To:"

To UNSUBSCRIBE, email to
with a subject of "unsubscribe". Trouble? Contact
Guillaume78fr
Le #9579401
> Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf est
il conforme?



Pour vérifier la présence du module, cat /proc/modules|grep raid me
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor

Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]

unused devices: <none>

Pour ce qui est de mdadm.conf, je pense qu'il est conforme puisqu'il
fonctionne avec l'ancien noyau. Cependant, je peux me tromper. Voici 3
versions que j'ai testées, qui ont toutes fonctionné avec le vieux
noyaux mais pas avec le nouveau...

mdadm.conf v1:
DEVICE partitions
ARRAY /dev/md1 level=raid1 num-devices=2
UUIDU1100a0:85c31a77:cc2468bf:d43cba6f
devices=/dev/sda3,/dev/sdb3
ARRAY /dev/md0 level=raid1 num-devices=2
UUID‚7b4f5b:b4dbf29f:3eede8cd:cc70c1ca
devices=/dev/sda1,/dev/sdb1

-----------------------------------------------

mdadm.conf v2:
DEVICE partitions
CREATE owner=root group=disk mode60 auto=yes
HOMEHOST <system>
ARRAY /dev/md0 level=raid1 num-devices=2
UUID‚7b4f5b:b4dbf29f:3eede8cd:cc70c1ca
ARRAY /dev/md1 level=raid1 num-devices=2
UUIDU1100a0:85c31a77:cc2468bf:d43cba6f
MAILADDR

-----------------------------------------------

mdadm.conf v3:
DEVICE partitions
ARRAY /dev/md1 level=raid1 num-devices=2 devices=/dev/sda3,/dev/sdb3
ARRAY /dev/md0 level=raid1 num-devices=2 devices=/dev/sda1,/dev/sdb1
MAILADDR


Pour info, j'ai aussi essayé en mettant les UUID dans fstab, mais j'en
suis revenu car ça ne peut fonctionner qu'avec le nouveau noyau, pas
avec l'ancien...


Guillaume



--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.net/?DebianFrench
Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et
"Reply-To:"

To UNSUBSCRIBE, email to
with a subject of "unsubscribe". Trouble? Contact
Jean-Yves F. Barbier
Le #9579361
o_O, j'ai pas suivi le thread, mais il-y-a un HD kicked out de
/dev/md0:

Guillaume78fr wrote:
Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?



Pour vérifier la présence du module, cat /proc/modules|grep raid me
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor

Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]


^^
#: mdadm /dev/md0 -r /dev/sdb1 -a /dev/sdb1

....



ARRAY /dev/md0 level=raid1 num-devices=2
UUID‚7b4f5b:b4dbf29f:3eede8cd:cc70c1ca
devices=/dev/sda1,/dev/sdb1




--
HOW TO REMOVE STAINS -- #28
Semen stains can be removed from computer terminals with
Fantastik or the like. Use Windex on the glass however, and
be sure to turn the power off if you have to clean between
the keys.
Daniel Huhardeaux
Le #9579341
Guillaume78fr wrote:
Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?



Pour vérifier la présence du module, cat /proc/modules|grep raid me
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor

Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]


Ce qui est illogique est qu'il essaye de construire un espace raid avec
sda0 (existe d'ailleurs?) au lieu de sda[123]. Essaye d'assembler
manuellement les espaces raid

--
Daniel Huhardeaux _____ ____ ____ _____ _____ _
enum +48 22 434 6431 (_ __) _ ) _ (_ __) _ _(_)
iaxtel 1-700-849-6983 / / / // / // / / / / /_/ / /
sip/iax:callto /_/ ( ___( ___/ /_/ (_/ (_/_/.net FWD# 422493


--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.net/?DebianFrench
Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et
"Reply-To:"

To UNSUBSCRIBE, email to
with a subject of "unsubscribe". Trouble? Contact
Guillaume78fr
Le #9579311
> o_O, j'ai pas suivi le thread, mais il-y-a un HD kicked out de


> /dev/md0:

Le problème, c'est qu'il ne détecte plus les partitions de mes disques
avec le nouveau noyau... (cf début du thread)
Les disques sont bons mais c'est un problème de config :-(

> #: mdadm /dev/md0 -r /dev/sdb1 -a /dev/sdb1

C'est impossible car les partitions /dev/sdb1 et /dev/sda1 ne sont pas
détectées... (No such file or directory)

Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]





Ce qui est illogique est qu'il essaye de construire un espace raid avec
sda0 (existe d'ailleurs?) au lieu de sda[123]. Essaye d'assembler
manuellement les espaces raid



C'est complètement illogique en effet... :-(
De plus la taille ne correspond même pas.

Pour ce qui est de sda0, ça rejoins ce que j'ai pu voir au départ,
c'est-à-dire que seul /dev/sda et /dev/sdb sont détectés mais pas leurs
partitions...

Mais pourquoi diable ne reconnait-il pas les partitions. S'il ne voyait
pas les disques, je penserais à un problème avec le contrôleur SATA,
mais les disques sont quant à eux bien détectés. Sincèrement, j'y perds
mon latin debianistique...

La seule chose que je vois, serais un conflit entre les fichiers de
l'ancien noyau et du nouveau. Seulement, si je supprime l'ancien noyau
pour vérifier ça, je ne pourrais plus jamais booter si ça plante...
Quelque part, ça m'ennuie pas mal, car j'ai tout un ensemble de services
que j'aimerais bien ne pas avoir à réinstaller... (mail, dns, dhcp,
hylafax, asterisk, ftp, samba, ...)

Guillaume


--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.net/?DebianFrench
Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et
"Reply-To:"

To UNSUBSCRIBE, email to
with a subject of "unsubscribe". Trouble? Contact
Jean-Yves F. Barbier
Le #9579301
NAN: sda[0] veut dire que la partition 0 (1ère) du raid array
se trouve dans le HD /dev/sda (V. les uniques Id qq lignes plus loin
dans le post d'org)

Daniel Huhardeaux wrote:
Guillaume78fr wrote:
Et le module raid1 est bien chargé je suppose. Lorsque tu boot ton
nouveau noyau, que donne un cat /proc/mdstat? Le fichier mdadm.conf
est il conforme?



Pour vérifier la présence du module, cat /proc/modules|grep raid m e
donne les modules :
- md_mod
- raid0
- raid1
- raid456
- xor

Pour cat /proc/mdstat, j'obtiens :
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sda[0]
244197440 blocks [2/1] [U_]


Ce qui est illogique est qu'il essaye de construire un espace raid avec
sda0 (existe d'ailleurs?) au lieu de sda[123]. Essaye d'assembler
manuellement les espaces raid




--
For children, a woman.
For pleasure, a boy.
For sheer ecstasy, a melon.
Publicité
Poster une réponse
Anonyme