Mise à jour vers Grub 2 -> echec du redémarrage

Le
yann
Bonsoir,

Voici le détail du problème que je rencontre et les tentatives de
résolution que j'ai déjà essayé.

Plate-forme : sid en amd64

Point de départ : mise à jour de l'OS (passage en noyau "31") et =
aussi
de grub2 histoire de jouer un peu

configuration de la machine au niveau des FS et disques : 6 disques
dont deux en RAID 1 (hda et hdb, même si se sont des disques sata mais
bon la carte mère asus ne les accepte que comme cela) md0 en ext3
pour /boot et md1 en lvm avec un vg et trois lv root, tmp et var (en
reiserfs) avec deux espaces de swap, les 4 autres en RAID5 pour une
partition reiserfs /home.

Premier redémarrage Ok mais je ne vois pas le nouveau noyau dans la
liste de grub qui est toujours en "legacy" => je passe le
upgrade-from-legacy et installe grub2 sur hda. À ce moment là mal=
gré
l'installation du noyau 2.6.31 je suis encore en 2.6.30-1 (via uname -a)

Reboot avec ce coup-ci l'invite de GRUB2 mais là gros plantage : arr=
êt
de la procédure et passage en grub rescue, la cause est l'absence du
fichier de config (grub.cfg).

un ls sur (hd0,1)/grub montre bien qu'il n'y a pas de grub.cfg et aussi
beaucoup moins de fichier que lorsque j'avais jeté un coup d'oeil apr=
ès
l'installation

Je reboote avec un sysrescue sur clé et fouille un peu mes disque et je
constate que les deux RAID1 ne sont plus complètement actif et qu'il
manque un disque dans chaque et le même (hda avant et dans suysrescue
sda).
Donc le RAID1 est planté depuis un certain temps et comme la machine
boot uniquement sur le premier disque (hda) cela explique pourquoi je
ne voyais pas le noucveau noyau dans le menu de boot Bien, mon gars !

Pas grave, je remets avec sysrescue les deux partitions sda dans le
RAID1 et attends la fin synchronisation.
les deux md (md0 et md1) sont maintenant reconstituiés et démarr=
és,
enfin c'est ce que j'interprète en lisant /proc/mdstat puisqu'ils sont
"active" en RAID1 et [2/2] [UU].

Reboot de nouveau, grub2 apparait, la liste des noyaux aussi. Je choisi
en premier le 2.6.31 et et et rien !
trop peu d'information !
Reboot au bouton et choix du "recovery mode"
Même symptômes avec un peu plus d'information attente du chargeme=
nt
du root system.

Par contre un redémarrage dans le dernier noyau 2.6.30-1 donne aussi
une terminaison en échec mais avec une information comme quoi je n'ai
plus de lvm et que les partitions lvm ne sont plus visibles Aïe !

retour sous sysrescue cd et lance un vgchange -a y puis les trois
reiserfscheck sur les partitions du mapper => pas ni problem elles sont
bien là !

Retour au boot et voici les messages vus au défilement :

Begin: Assembling all MD arrays md: md0 stoppes
md bind<hdd1>
md bind<hdc1>
raid1: raid set md0 active
..
md0 unknown partition table
Failure: failed to assemble all array
md1 unknown partirion
begin waiting for root file system

Et après, le temps d'écrire ces quelques lignes passage dans la b=
usybox
de initramfs

Il semble que :
- plus de lvm,
- les array de raid ne se détectent plus tout seuls

que faire ?

Merci de vos suggestions !

Yann.

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists Vous pouvez aussi ajouter le mot
``spam'' dans vos champs "From" et "Reply-To:"

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers debian-user-french-REQUEST@lists.debian.org
En cas de soucis, contactez EN ANGLAIS listmaster@lists.debian.org
Vidéos High-Tech et Jeu Vidéo
Téléchargements
Vos réponses
Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Yann Cohen
Le #20514021
Le Sat, 7 Nov 2009 19:52:33 +0100,
yann
Bon, je la fais vite...

hypothèses :
1- grub n'est pas en cause car la station boote et le chargement du
noyau fonctionne jusqu'au montage de "root fs".
2- les messages indiquent que les FS sous LVM (dont root fs) ne sont
plus accessibles : partition unknown. C'est comme si les modules lvm
n'étaient plus disponibles dans le initramfs...

Souvenirs :
Au fur et à mesure de mes introspection, sont remontés à la surface de
ma mémoire, lors d'apt-get dist-upgrade :
- la suppression de lvm2,
- l'installation "invisible" dans le menu grub de nouveau noyau
2.6.30-2 notamment.

Actions :
Dans la liste des noyaux disponibles je peux remonter jusuq'au 2.6.26
de l'installation initiale de la station (ouf /boot à de la place ! et
j'ai été suffisamment fainéant pour ne pas les supprimer !).
J'ai donc essayé successivement de démarrer sur les différen ts noyaux
disponibles...
Et le noyau 2.6.29 a bien voulu fonctionner (c'est avec le 2.6.30 que
j'ai eu les demande de suppression de lvm et après la casse du RAID)
Donc à partir de cette version j'ai réinstallé (via synaptic s) les
noyaux 2.6.30-2 et 2.6.31-1 ainsi que lvm2, les initramfs ont été
refaits...

Donc retour à la normale et je vous écris depuis cette version 2. 6.31-1
qui fonctionne.

Conclusion :
Le problème est survenu parceque le RAID de la partition root avait
été arrêté sans que je m'en aperçoive et que dans les versions
suivantes le lvm avait disparu de la partition encore active du RAID
alors que le système était démarré depuis la partition exclue du RAID !

Maintenant ma question devient comment être au courant de l'arrêt du
RAID ou bien de son état pas terrible ?! autrement bien entendu qu'en
appliquant régulièrement des "cat /proc/mdstat" !

Bon dimanche à tous.
Yann.

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists Vous pouvez aussi ajouter le mot
``spam'' dans vos champs "From" et "Reply-To:"

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Gilles Mocellin
Le #20518911
--pWyiEgJYm5f9v55/
Content-Type: text/plain; charset=iso-8859-1
Content-Disposition: inline
Content-Transfer-Encoding: quoted-printable

On Sun, Nov 08, 2009 at 02:04:07PM +0100, Yann Cohen wrote:
[...]

Maintenant ma question devient comment être au courant de l'arrêt du
RAID ou bien de son état pas terrible ?! autrement bien entendu qu'en
appliquant régulièrement des "cat /proc/mdstat" !



Il suffit d'activer le monitoring, dans /etc/default/mdadm :
# START_DAEMON:
# should mdadm start the MD monitoring daemon during boot?
START_DAEMON=true

Et un mail sera envoyé au destinataire définit dans le mdadm.conf
(MAILADDR).

--pWyiEgJYm5f9v55/
Content-Type: application/pgp-signature; name="signature.asc"
Content-Description: Digital signature
Content-Disposition: inline

-----BEGIN PGP SIGNATURE-----
Version: GnuPG v1.4.10 (GNU/Linux)

iEYEARECAAYFAkr2xvAACgkQDltnDmLJYdB48QCfYNsm4YQDMDPsz8uKWK+NzAWh
c3IAoNJSTaEPNQJwpgBX9D8W95yzf3Ym
=FovH
-----END PGP SIGNATURE-----

--pWyiEgJYm5f9v55/--

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists Vous pouvez aussi ajouter le mot
``spam'' dans vos champs "From" et "Reply-To:"

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Yann Cohen
Le #20517611
Le Sun, 8 Nov 2009 14:26:08 +0100,
Gilles Mocellin
On Sun, Nov 08, 2009 at 02:04:07PM +0100, Yann Cohen wrote:
[...]

> Maintenant ma question devient comment être au courant de l'arrà ªt du
> RAID ou bien de son état pas terrible ?! autrement bien entendu
> qu'en appliquant régulièrement des "cat /proc/mdstat" !

Il suffit d'activer le monitoring, dans /etc/default/mdadm :
# START_DAEMON:
# should mdadm start the MD monitoring daemon during boot?
START_DAEMON=true

Et un mail sera envoyé au destinataire définit dans le mdadm.co nf
(MAILADDR).


Merci,

fait, mais pas encore testé ;-)

bonne soirée.
Yann.

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists Vous pouvez aussi ajouter le mot
``spam'' dans vos champs "From" et "Reply-To:"

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Publicité
Poster une réponse
Anonyme