OVH Cloud OVH Cloud

grub2 et raid1

11 réponses
Avatar
François Boisson
Bonjour,

Je viens de récupérer un serveur (OVH) qui a eu un souci de disque. Celui ci a
été remplacé. Voilà la situation

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
[multipath] [faulty] md1 : active raid1 sdb1[0] sda1[1]
307198912 blocks [2/2] [UU]

md2 : active raid1 sdb2[0] sda2[1]
102398912 blocks [2/2] [UU]

md3 : active raid1 sdb3[0] sda3[1]
271770560 blocks [2/2] [UU]

md5 : active raid1 sdb5[0] sda5[1]
46078848 blocks [2/2] [UU]

La racine est /dev/md1. Le disque mort était (ou est devenu) /dev/sdb. La
machine ne démarrait plus sur le disque dur. En démraant sur un noyau OVH,
1) J'ai refait le RAID1 (en clair repartitionné et reintégré sdb1, sdb2, sdb3
et sdb5 dans les md correspondant). Celui ci est opérationnel comme le montre
ce qui précède.
Le fichier mdadm.co,f a été refait via /usr/share/mdadm/mkconf
2) J'ai fait
grub-mkdevicemap
grub-install "(hd0)"
grub-install "(hd1)"

# cat /boot/grub/device.map donne
(hd0) /dev/disk/by-id/ata-ST3750525AS_5VP7WBDR
(hd1) /dev/disk/by-id/ata-ST3750528AS_6VPDCZQJ

et les deux grub-install renvoient
Installation finished. No error reported.

3) Puis je termine par un
update-grub
qui ne signale aucune erreur.
Dans le grub.cfg, on retrouve bien

insmod diskfilter
insmod mdraid09
ainsi que
set root='mduuid/db60a4b7487d052ba4d2adc226fd5302'
(c'est bien l'UUID de /dev/md1)

et
linux /boot/vmlinuz-3.5.0-34-generic root=/dev/md1

Bref je ne vois pas d'erreurs là dedans.

4) Un update-initramfs -u donne
cryptsetup: WARNING: failed to detect canonical device of /dev/md1
cryptsetup: WARNING: could not determine root device from /etc/fstab
bien que
********* /etc/fstab *************
<file system> <mount point> <type> <options> <dump> <pass>
/dev/md1 / ext3 errors=remount-ro,relatime 0 1
/dev/md2 /home ext3 defaults,relatime 1 2
/dev/md3 /var ext3 defaults,relatime 1 2
/dev/md5 /sauvegarde ext3 defaults,relatime 1 2
/dev/sda6 swap swap defaults 0 0
/dev/sdb6 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
dev /dev devtmpfs rw 0 0

et que rien n'est crypté.

Avec tout ça rien à faire pour bouter la machine elle même. Le système
boute sur le noyau OVH en déclarant la racine sur /dev/md1 mais impossible
de bouter sur le noyau local. Je ne peux évidemment pas voir si ça coince
au niveau de grub (grub2 2.00-7) ou de l'initramfs.
Je n'ai pas beaucoup d'expérience sur les RAID1 logiciels, quelqu'un aurait-il
une indication ou un doc un peu précise sur la configuration
RAID1 sans LVM + grub2 avec racine sur /dev/md1 (pas de
/dev/md0 je ne sais pas pourquoi, oubli à la création je pense).

Merci d'avoir lu

François Boisson

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers debian-user-french-REQUEST@lists.debian.org
En cas de soucis, contactez EN ANGLAIS listmaster@lists.debian.org
Archive: http://lists.debian.org/20131030174321.e4a3a7447c5b66ba50e597ce@maison.homelinux.net

1 réponse

1 2
Avatar
François Boisson
Le Thu, 31 Oct 2013 14:48:20 +0100
François Boisson a écrit:

Bilan: si je rajoute raid1 dans /etc/initramfs-tools/modules (qui manquait
effectivement) et que je refais l'initrd, ça devrait marcher. Etonnant qu'une
telle erreur subsiste dans l'installateur.

Je fais le test ce soir.



Test fait, c'était bien ça. raid1 n'avait pas été intégré dans l'initramfs.
Problème résolu donc. Merci à ceux qui ont réfléchi au pbm.

François Boisson

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Archive: http://lists.debian.org/
1 2