Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

Mise à jour vers Grub 2 -> echec du redémarrage

3 réponses
Avatar
yann
Bonsoir,

Voici le d=C3=A9tail du probl=C3=A8me que je rencontre et les tentatives de
r=C3=A9solution que j'ai d=C3=A9j=C3=A0 essay=C3=A9.

Plate-forme : sid en amd64

Point de d=C3=A9part : mise =C3=A0 jour de l'OS (passage en noyau "31") et =
aussi
de grub2 histoire de jouer un peu...

configuration de la machine au niveau des FS et disques : 6 disques
dont deux en RAID 1 (hda et hdb, m=C3=AAme si se sont des disques sata mais
bon la carte m=C3=A8re asus ne les accepte que comme cela) md0 en ext3
pour /boot et md1 en lvm avec un vg et trois lv root, tmp et var (en
reiserfs) avec deux espaces de swap, les 4 autres en RAID5 pour une
partition reiserfs /home.

Premier red=C3=A9marrage Ok mais je ne vois pas le nouveau noyau dans la
liste de grub qui est toujours en "legacy" =3D> je passe le
upgrade-from-legacy et installe grub2 sur hda. =C3=80 ce moment l=C3=A0 mal=
gr=C3=A9
l'installation du noyau 2.6.31 je suis encore en 2.6.30-1 (via uname -a)

Reboot avec ce coup-ci l'invite de GRUB2 mais l=C3=A0 gros plantage : arr=
=C3=AAt
de la proc=C3=A9dure et passage en grub rescue, la cause est l'absence du
fichier de config (grub.cfg).=20

un ls sur (hd0,1)/grub montre bien qu'il n'y a pas de grub.cfg et aussi
beaucoup moins de fichier que lorsque j'avais jet=C3=A9 un coup d'oeil apr=
=C3=A8s
l'installation...

Je reboote avec un sysrescue sur cl=C3=A9 et fouille un peu mes disque et je
constate que les deux RAID1 ne sont plus compl=C3=A8tement actif et qu'il
manque un disque dans chaque et le m=C3=AAme (hda avant et dans suysrescue
sda).
Donc le RAID1 est plant=C3=A9 depuis un certain temps et comme la machine
boot uniquement sur le premier disque (hda) cela explique pourquoi je
ne voyais pas le noucveau noyau dans le menu de boot... Bien, mon gars !

Pas grave, je remets avec sysrescue les deux partitions sda dans le
RAID1 et attends la fin synchronisation.
les deux md (md0 et md1) sont maintenant reconstitui=C3=A9s et d=C3=A9marr=
=C3=A9s,
enfin c'est ce que j'interpr=C3=A8te en lisant /proc/mdstat puisqu'ils sont
"active" en RAID1 et [2/2] [UU].

Reboot de nouveau, grub2 apparait, la liste des noyaux aussi. Je choisi
en premier le 2.6.31 et et et rien !
trop peu d'information !
Reboot au bouton et choix du "recovery mode"
M=C3=AAme sympt=C3=B4mes avec un peu plus d'information attente du chargeme=
nt
du root system.

Par contre un red=C3=A9marrage dans le dernier noyau 2.6.30-1 donne aussi
une terminaison en =C3=A9chec mais avec une information comme quoi je n'ai
plus de lvm et que les partitions lvm ne sont plus visibles... A=C3=AFe !

retour sous sysrescue cd et lance un vgchange -a y puis les trois
reiserfscheck sur les partitions du mapper =3D> pas ni problem elles sont
bien l=C3=A0 !

Retour au boot et voici les messages vus au d=C3=A9filement :

Begin: Assembling all MD arrays ... md: md0 stoppes
md bind<hdd1>
md bind<hdc1>
raid1: raid set md0 active
..
md0 unknown partition table
Failure: failed to assemble all array
md1 unknown partirion
begin waiting for root file system

Et apr=C3=A8s, le temps d'=C3=A9crire ces quelques lignes passage dans la b=
usybox
de initramfs...

Il semble que :
- plus de lvm,
- les array de raid ne se d=C3=A9tectent plus tout seuls...

que faire ?

Merci de vos suggestions !

Yann.

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists Vous pouvez aussi ajouter le mot
``spam'' dans vos champs "From" et "Reply-To:"

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers debian-user-french-REQUEST@lists.debian.org
En cas de soucis, contactez EN ANGLAIS listmaster@lists.debian.org

3 réponses

Avatar
Yann Cohen
Le Sat, 7 Nov 2009 19:52:33 +0100,
yann a écrit :

Bon, je la fais vite...

hypothèses :
1- grub n'est pas en cause car la station boote et le chargement du
noyau fonctionne jusqu'au montage de "root fs".
2- les messages indiquent que les FS sous LVM (dont root fs) ne sont
plus accessibles : partition unknown. C'est comme si les modules lvm
n'étaient plus disponibles dans le initramfs...

Souvenirs :
Au fur et à mesure de mes introspection, sont remontés à la surface de
ma mémoire, lors d'apt-get dist-upgrade :
- la suppression de lvm2,
- l'installation "invisible" dans le menu grub de nouveau noyau
2.6.30-2 notamment.

Actions :
Dans la liste des noyaux disponibles je peux remonter jusuq'au 2.6.26
de l'installation initiale de la station (ouf /boot à de la place ! et
j'ai été suffisamment fainéant pour ne pas les supprimer !).
J'ai donc essayé successivement de démarrer sur les différen ts noyaux
disponibles...
Et le noyau 2.6.29 a bien voulu fonctionner (c'est avec le 2.6.30 que
j'ai eu les demande de suppression de lvm et après la casse du RAID)
Donc à partir de cette version j'ai réinstallé (via synaptic s) les
noyaux 2.6.30-2 et 2.6.31-1 ainsi que lvm2, les initramfs ont été
refaits...

Donc retour à la normale et je vous écris depuis cette version 2. 6.31-1
qui fonctionne.

Conclusion :
Le problème est survenu parceque le RAID de la partition root avait
été arrêté sans que je m'en aperçoive et que dans les versions
suivantes le lvm avait disparu de la partition encore active du RAID
alors que le système était démarré depuis la partition exclue du RAID !

Maintenant ma question devient comment être au courant de l'arrêt du
RAID ou bien de son état pas terrible ?! autrement bien entendu qu'en
appliquant régulièrement des "cat /proc/mdstat" !

Bon dimanche à tous.
Yann.

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists Vous pouvez aussi ajouter le mot
``spam'' dans vos champs "From" et "Reply-To:"

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Avatar
Gilles Mocellin
--pWyiEgJYm5f9v55/
Content-Type: text/plain; charset=iso-8859-1
Content-Disposition: inline
Content-Transfer-Encoding: quoted-printable

On Sun, Nov 08, 2009 at 02:04:07PM +0100, Yann Cohen wrote:
[...]

Maintenant ma question devient comment être au courant de l'arrêt du
RAID ou bien de son état pas terrible ?! autrement bien entendu qu'en
appliquant régulièrement des "cat /proc/mdstat" !



Il suffit d'activer le monitoring, dans /etc/default/mdadm :
# START_DAEMON:
# should mdadm start the MD monitoring daemon during boot?
START_DAEMON=true

Et un mail sera envoyé au destinataire définit dans le mdadm.conf
(MAILADDR).

--pWyiEgJYm5f9v55/
Content-Type: application/pgp-signature; name="signature.asc"
Content-Description: Digital signature
Content-Disposition: inline

-----BEGIN PGP SIGNATURE-----
Version: GnuPG v1.4.10 (GNU/Linux)

iEYEARECAAYFAkr2xvAACgkQDltnDmLJYdB48QCfYNsm4YQDMDPsz8uKWK+NzAWh
c3IAoNJSTaEPNQJwpgBX9D8W95yzf3Ym
=FovH
-----END PGP SIGNATURE-----

--pWyiEgJYm5f9v55/--

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists Vous pouvez aussi ajouter le mot
``spam'' dans vos champs "From" et "Reply-To:"

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Avatar
Yann Cohen
Le Sun, 8 Nov 2009 14:26:08 +0100,
Gilles Mocellin a écrit :

On Sun, Nov 08, 2009 at 02:04:07PM +0100, Yann Cohen wrote:
[...]

> Maintenant ma question devient comment être au courant de l'arrà ªt du
> RAID ou bien de son état pas terrible ?! autrement bien entendu
> qu'en appliquant régulièrement des "cat /proc/mdstat" !

Il suffit d'activer le monitoring, dans /etc/default/mdadm :
# START_DAEMON:
# should mdadm start the MD monitoring daemon during boot?
START_DAEMON=true

Et un mail sera envoyé au destinataire définit dans le mdadm.co nf
(MAILADDR).


Merci,

fait, mais pas encore testé ;-)

bonne soirée.
Yann.

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists Vous pouvez aussi ajouter le mot
``spam'' dans vos champs "From" et "Reply-To:"

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS