Suite à une manip physique (changement de pâte thermique), mon raid ne
veut plus se monter. J'ai peut-être touché un câble, mais en tout cas
l'UEFI de la CM reconnait bien 2 disques actifs (+ SSD système, pas de
soucis avec celui là), Debian aussi.
Les 2 disques sont assez vieux (dont un dont le connecteur s'est
"intégré" dans le câble... dur à expliquer), mais SMART ne me donne rien
d'alarmant.
Depuis, pour démarrer, je suis obliger de virer le RAID de fstab et il
n'y a pas moyen de monter le disque.
C'est un RAID 1 mdadm, avec une unique partition LVM, et autant les
disques sont bien reconnus, autant LVM n'arrive pas à me trouver de PV,
VG, ni de LV.
J'ai essayé avec vgcfgrestore, mais il me dit qu'il n'arrive pas à
trouver l'uuid correspondant au fichier.
J'ai mis dans le fichier de backup l'uuid que me donne blkid, rien à
faire non plus... Je commence à sécher un peu là...
Voici ce que je peux vous dire :
root@olorin-fixe:~# mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Jan 17 22:18:35 2016
Raid Level : raid1
Array Size : 160704384 (153.26 GiB 164.56 GB)
Used Dev Size : 160704384 (153.26 GiB 164.56 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu Jan 21 01:06:17 2016
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : olorin-fixe:0 (local to host olorin-fixe)
UUID : f84fe148:a775eac4:76ff776e:5845be39
Events : 764
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
root@olorin-fixe:~# e2fsck -f /dev/md0
e2fsck 1.42.13 (17-May-2015)
ext2fs_open2: Numéro magique invalide dans le super-bloc
e2fsck : Superbloc invalide, tentons d'utiliser les blocs de sauvetage...
e2fsck: Numéro magique invalide dans le super-bloc lors de la tentative
d'ouverture de /dev/md0
Le superbloc n'a pu être lu ou ne contient pas un système de fichiers
ext2/ext3/ext4 correct. Si le périphérique est valide et qu'il contient
réellement
un système de fichiers ext2/ext3/ext4 (et non pas de type swap, ufs ou
autre),
alors le superbloc est corrompu, et vous pourriez tenter d'exécuter
e2fsck avec un autre superbloc :
e2fsck -b 8193 <périphérique>
ou
e2fsck -b 32768 <périphérique>
-------------------------------
root@olorin-fixe:~# lvscan -a
ACTIVE '/dev/olorin-fixe-vg/root' [20,00 GiB] inherit
ACTIVE '/dev/olorin-fixe-vg/swap_1' [15,76 GiB] inherit
ACTIVE '/dev/olorin-fixe-vg/home' [320,00 GiB] inherit
root@olorin-fixe:~# vgscan
Reading all physical volumes. This may take a while...
Found volume group "olorin-fixe-vg" using metadata type lvm2
root@olorin-fixe:~# pvscan
PV /dev/sda5 VG olorin-fixe-vg lvm2 [465,52 GiB / 109,76 GiB free]
Total: 1 [465,52 GiB] / in use: 1 [465,52 GiB] / in no VG: 0 [0 ]
-------> Le LVM sur le RAID c'est VG olorin-fixe-storage / LV storage0,
là il reconnait le SSD système uniquement.
Alors petite rectif, c'est avec "vgimport -a" que mon volume réapparaît. Alors que je n'ai jamais fait de vgexport de mes volumes...
D'ailleurs, il me le confirme :
:~# vgimport -a Volume group "olorin-fixe-vg" is not exported Volume group "olorin-fixe-storage" is not exported
En revanche, lorsque je remets mon volume dans fstab, je boot en mode single-user (avec systemd qui attends 1m30s que le disque réponde).
Voici le log (tronqué) du boot single-user : PS: si vous avez besoin du log complet... je le mettrais, mais bon, un log de boot c'est un peu gros en mail !
a échoué, avec le résultat dependency. févr. 02 18:59:38 olorin-fixe systemd[1]: Dependency failed for /media/storage0. -- Subject: L'unité (unit) media-storage0.mount a échoué -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- L'unité (unit) media-storage0.mount a échoué, avec le résultat dependency. févr. 02 18:59:38 olorin-fixe systemd[1]: Dependency failed for Local File Systems. -- Subject: L'unité (unit) local-fs.target a échoué -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- L'unité (unit) local-fs.target a échoué, avec le résultat dependency. févr. 02 18:59:38 olorin-fixe systemd[1]: local-fs.target: Job local-fs.target/start failed with result 'dependency'. févr. 02 18:59:38 olorin-fixe systemd[1]: local-fs.target: Triggering OnFailure= dependencies. févr. 02 18:59:38 olorin-fixe systemd[1]: media-storage0.mount: Job media-storage0.mount/start failed with result 'dependency'. févr. 02 18:59:38 olorin-fixe systemd[1]: : Job /start failed with result 'dependency'. févr. 02 18:59:38 olorin-fixe systemd[1]: dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.device: Job dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.device/start failed with result 'timeout'.
[...]
On 02/02/2016 00:05, Pascal Hambourg wrote:
Damien TOURDE a écrit :
Alors la 3 ème possibilité c'est que pour booter plus vite, j'ai dit à ma carte mère de ne pas "détecter" les disques à chaque démarrage, et de choisir toujours le SSD sauf si F8 est appuyé.
Je ne vois pas le rapport avec la non détection du PV qui est contenu dans un ensemble RAID qui est lui-même parfaitement détecté.
Bonsoir,
Alors petite rectif, c'est avec "vgimport -a" que mon volume réapparaît.
Alors que je n'ai jamais fait de vgexport de mes volumes...
D'ailleurs, il me le confirme :
root@olorin-fixe:~# vgimport -a
Volume group "olorin-fixe-vg" is not exported
Volume group "olorin-fixe-storage" is not exported
En revanche, lorsque je remets mon volume dans fstab, je boot en mode
single-user (avec systemd qui attends 1m30s que le disque réponde).
Voici le log (tronqué) du boot single-user :
PS: si vous avez besoin du log complet... je le mettrais, mais bon, un
log de boot c'est un peu gros en
mail !
-- L'unité (unit) hdparm.service a terminé son démarrage, avec le
résultat done.
févr. 02 18:58:08 olorin-fixe kernel: md: md0 stopped.
févr. 02 18:58:08 olorin-fixe kernel: md: bind<sdc1>
févr. 02 18:58:08 olorin-fixe kernel: md: bind<sdb1>
févr. 02 18:58:08 olorin-fixe kernel: usb 1-8: new full-speed USB device
number 4 using xhci_hcd
févr. 02 18:58:08 olorin-fixe kernel: md: raid1 personality registered
for level 1
févr. 02 18:58:08 olorin-fixe kernel: md/raid1:md0: active with 2 out of
2 mirrors
févr. 02 18:58:08 olorin-fixe kernel: created bitmap (2 pages) for
device md0
févr. 02 18:58:08 olorin-fixe kernel: md0: bitmap initialized from disk:
read 1 pages, set 0 of 2453 bits
févr. 02 18:58:08 olorin-fixe kernel: md0: detected capacity change from
0 to 164561289216
févr. 02 18:58:08 olorin-fixe mdadm-raid[249]: Assembling MD array
md0...done (started [2/2]).
févr. 02 18:58:08 olorin-fixe mdadm-raid[249]: Generating udev events
for MD arrays...done.
févr. 02 18:58:08 olorin-fixe systemd[1]: Started LSB: MD array assembly.
-- Subject: L'unité (unit) mdadm-raid.service a terminé son démarrage
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- L'unité (unit) mdadm-raid.service a terminé son démarrage, avec le
résultat done.
févr. 02 18:58:08 olorin-fixe systemd[1]: Started MD array monitor.
-- Subject: L'unité (unit) mdmonitor.service a terminé son démarrage
-- Defined-By: systemd
[...]
févr. 02 18:59:38 olorin-fixe systemd[1]:
dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.device:
Job
dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.device/start
timed out.
févr. 02 18:59:38 olorin-fixe systemd[1]: Timed out waiting for device
dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.device.
-- Subject: L'unité (unit)
dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.device
a échoué
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- L'unité (unit)
dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.device
a échoué, avec le résultat timeout.
févr. 02 18:59:38 olorin-fixe systemd[1]: Dependency failed for File
System Check on /dev/disk/by-uuid/f84fe148-a775-eac4-76ff-776e5845be39.
-- Subject: L'unité (unit)
systemd-fsck@dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.service
a échoué
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- L'unité (unit)
systemd-fsck@dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.service
a échoué, avec le résultat dependency.
févr. 02 18:59:38 olorin-fixe systemd[1]: Dependency failed for
/media/storage0.
-- Subject: L'unité (unit) media-storage0.mount a échoué
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- L'unité (unit) media-storage0.mount a échoué, avec le résultat
dependency.
févr. 02 18:59:38 olorin-fixe systemd[1]: Dependency failed for Local
File Systems.
-- Subject: L'unité (unit) local-fs.target a échoué
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- L'unité (unit) local-fs.target a échoué, avec le résultat dependency.
févr. 02 18:59:38 olorin-fixe systemd[1]: local-fs.target: Job
local-fs.target/start failed with result 'dependency'.
févr. 02 18:59:38 olorin-fixe systemd[1]: local-fs.target: Triggering
OnFailure= dependencies.
févr. 02 18:59:38 olorin-fixe systemd[1]: media-storage0.mount: Job
media-storage0.mount/start failed with result 'dependency'.
févr. 02 18:59:38 olorin-fixe systemd[1]:
systemd-fsck@dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.service:
Job
systemd-fsck@dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.service/start
failed with result 'dependency'.
févr. 02 18:59:38 olorin-fixe systemd[1]:
dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.device:
Job
dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.device/start
failed with result 'timeout'.
[...]
On 02/02/2016 00:05, Pascal Hambourg wrote:
Damien TOURDE a écrit :
Alors la 3 ème possibilité c'est que pour booter plus vite, j'ai dit à
ma carte mère de ne pas "détecter" les disques à chaque démarrage, et de
choisir toujours le SSD sauf si F8 est appuyé.
Je ne vois pas le rapport avec la non détection du PV qui est contenu
dans un ensemble RAID qui est lui-même parfaitement détecté.
Alors petite rectif, c'est avec "vgimport -a" que mon volume réapparaît. Alors que je n'ai jamais fait de vgexport de mes volumes...
D'ailleurs, il me le confirme :
:~# vgimport -a Volume group "olorin-fixe-vg" is not exported Volume group "olorin-fixe-storage" is not exported
En revanche, lorsque je remets mon volume dans fstab, je boot en mode single-user (avec systemd qui attends 1m30s que le disque réponde).
Voici le log (tronqué) du boot single-user : PS: si vous avez besoin du log complet... je le mettrais, mais bon, un log de boot c'est un peu gros en mail !
a échoué, avec le résultat dependency. févr. 02 18:59:38 olorin-fixe systemd[1]: Dependency failed for /media/storage0. -- Subject: L'unité (unit) media-storage0.mount a échoué -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- L'unité (unit) media-storage0.mount a échoué, avec le résultat dependency. févr. 02 18:59:38 olorin-fixe systemd[1]: Dependency failed for Local File Systems. -- Subject: L'unité (unit) local-fs.target a échoué -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- L'unité (unit) local-fs.target a échoué, avec le résultat dependency. févr. 02 18:59:38 olorin-fixe systemd[1]: local-fs.target: Job local-fs.target/start failed with result 'dependency'. févr. 02 18:59:38 olorin-fixe systemd[1]: local-fs.target: Triggering OnFailure= dependencies. févr. 02 18:59:38 olorin-fixe systemd[1]: media-storage0.mount: Job media-storage0.mount/start failed with result 'dependency'. févr. 02 18:59:38 olorin-fixe systemd[1]: : Job /start failed with result 'dependency'. févr. 02 18:59:38 olorin-fixe systemd[1]: dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.device: Job dev-disk-byx2duuid-f84fe148x2da775x2deac4x2d76ffx2d776e5845be39.device/start failed with result 'timeout'.
[...]
On 02/02/2016 00:05, Pascal Hambourg wrote:
Damien TOURDE a écrit :
Alors la 3 ème possibilité c'est que pour booter plus vite, j'ai dit à ma carte mère de ne pas "détecter" les disques à chaque démarrage, et de choisir toujours le SSD sauf si F8 est appuyé.
Je ne vois pas le rapport avec la non détection du PV qui est contenu dans un ensemble RAID qui est lui-même parfaitement détecté.
Damien TOURDE
Si ça peut donner une piste, je n'ai pas trace de mon raid dans :
sda -> SSD système avec LVM sdb+sdc -> RAID 1 mdadm avec LVM (storage)
On 02/02/2016 20:25, Damien TOURDE wrote:
Bonsoir,
Alors petite rectif, c'est avec "vgimport -a" que mon volume réapparaît. Alors que je n'ai jamais fait de vgexport de mes volumes...
D'ailleurs, il me le confirme :
:~# vgimport -a Volume group "olorin-fixe-vg" is not exported Volume group "olorin-fixe-storage" is not exported
En revanche, lorsque je remets mon volume dans fstab, je boot en mode single-user (avec systemd qui attends 1m30s que le disque réponde).
Voici le log (tronqué) du boot single-user : PS: si vous avez besoin du log complet... je le mettrais, mais bon, un log de boot c'est un peu gros en mail !
sda -> SSD système avec LVM
sdb+sdc -> RAID 1 mdadm avec LVM (storage)
On 02/02/2016 20:25, Damien TOURDE wrote:
Bonsoir,
Alors petite rectif, c'est avec "vgimport -a" que mon volume réapparaît.
Alors que je n'ai jamais fait de vgexport de mes volumes...
D'ailleurs, il me le confirme :
root@olorin-fixe:~# vgimport -a
Volume group "olorin-fixe-vg" is not exported
Volume group "olorin-fixe-storage" is not exported
En revanche, lorsque je remets mon volume dans fstab, je boot en mode
single-user (avec systemd qui attends 1m30s que le disque réponde).
Voici le log (tronqué) du boot single-user :
PS: si vous avez besoin du log complet... je le mettrais, mais bon, un
log de boot c'est un peu gros en
mail !
sda -> SSD système avec LVM sdb+sdc -> RAID 1 mdadm avec LVM (storage)
On 02/02/2016 20:25, Damien TOURDE wrote:
Bonsoir,
Alors petite rectif, c'est avec "vgimport -a" que mon volume réapparaît. Alors que je n'ai jamais fait de vgexport de mes volumes...
D'ailleurs, il me le confirme :
:~# vgimport -a Volume group "olorin-fixe-vg" is not exported Volume group "olorin-fixe-storage" is not exported
En revanche, lorsque je remets mon volume dans fstab, je boot en mode single-user (avec systemd qui attends 1m30s que le disque réponde).
Voici le log (tronqué) du boot single-user : PS: si vous avez besoin du log complet... je le mettrais, mais bon, un log de boot c'est un peu gros en mail !
Si ça peut donner une piste, je n'ai pas trace de mon raid dans :
:~# ls -al /dev/disk/by-uuid/
Normal, pas plus qu'il n'y a de trace de sda5 qui contient aussi un PV LVM et non un système de fichiers ou un swap.
:~# blkid
(...)
/dev/md0: TYPE="promise_fasttrack_raid_member"
A mon avis, je le répète, c'est de ce côté qu'il faut chercher.
Damien TOURDE
Bonjour,
On 03/02/2016 00:05, Pascal Hambourg wrote:
/dev/md0: TYPE="promise_fasttrack_raid_member" A mon avis, je le répète, c'est de ce côté qu'il faut chercher.
Je pense que tu as raison Pascal, je n'avais pas saisi la signification de "promise".
Il y a fort longtemps, du temps où j'ignorais la "débilité", et le risque, du raid pseudo-hardware (ce sont des disques de 150Go tout de même, il y a plus récent), ces disques étaient utilisés avec un fakeraid d'une CM MSI.
Depuis, je l'ai ai utilisés sur un petit serveur en RAID mdadm, sans gros soucis, et à nouveau en RAID mdadm aujourd'hui en attendant de renouveler les disques pour plus gros. J'ai arrêté de les mettre sur le serveur car, d'une part, le serveur n'est plus, et d'autre part, il "grattent" fort donc boucan du diable.
Soit je les ai mal formatés et ils contiennent encore des superblocks de l'ancien raid géré par le chipset de la vieille CM, soit j'ai fait une boulette dans la config de ma CM actuelle, je vais creuser là dessus.
Mais je ne trouve pas de cas similaires ou approchant sur Google, il va falloir faire ça "à l'ancienne", si j'y arrive...
En revanche, je n'avais pas rencontré de soucis sur mon ancien serveur au niveau du boot... et là, c'est pas logique...
Bonjour,
On 03/02/2016 00:05, Pascal Hambourg wrote:
/dev/md0: TYPE="promise_fasttrack_raid_member"
A mon avis, je le répète, c'est de ce côté qu'il faut chercher.
Je pense que tu as raison Pascal, je n'avais pas saisi la signification
de "promise".
Il y a fort longtemps, du temps où j'ignorais la "débilité", et le
risque, du raid pseudo-hardware (ce sont des disques de 150Go tout de
même, il y a plus récent), ces disques étaient utilisés avec un fakeraid
d'une CM MSI.
Depuis, je l'ai ai utilisés sur un petit serveur en RAID mdadm, sans
gros soucis, et à nouveau en RAID mdadm aujourd'hui en attendant de
renouveler les disques pour plus gros.
J'ai arrêté de les mettre sur le serveur car, d'une part, le serveur
n'est plus, et d'autre part, il "grattent" fort donc boucan du diable.
Soit je les ai mal formatés et ils contiennent encore des superblocks de
l'ancien raid géré par le chipset de la vieille CM, soit j'ai fait une
boulette dans la config de ma CM actuelle, je vais creuser là dessus.
Mais je ne trouve pas de cas similaires ou approchant sur Google, il va
falloir faire ça "à l'ancienne", si j'y arrive...
En revanche, je n'avais pas rencontré de soucis sur mon ancien serveur
au niveau du boot... et là, c'est pas logique...
/dev/md0: TYPE="promise_fasttrack_raid_member" A mon avis, je le répète, c'est de ce côté qu'il faut chercher.
Je pense que tu as raison Pascal, je n'avais pas saisi la signification de "promise".
Il y a fort longtemps, du temps où j'ignorais la "débilité", et le risque, du raid pseudo-hardware (ce sont des disques de 150Go tout de même, il y a plus récent), ces disques étaient utilisés avec un fakeraid d'une CM MSI.
Depuis, je l'ai ai utilisés sur un petit serveur en RAID mdadm, sans gros soucis, et à nouveau en RAID mdadm aujourd'hui en attendant de renouveler les disques pour plus gros. J'ai arrêté de les mettre sur le serveur car, d'une part, le serveur n'est plus, et d'autre part, il "grattent" fort donc boucan du diable.
Soit je les ai mal formatés et ils contiennent encore des superblocks de l'ancien raid géré par le chipset de la vieille CM, soit j'ai fait une boulette dans la config de ma CM actuelle, je vais creuser là dessus.
Mais je ne trouve pas de cas similaires ou approchant sur Google, il va falloir faire ça "à l'ancienne", si j'y arrive...
En revanche, je n'avais pas rencontré de soucis sur mon ancien serveur au niveau du boot... et là, c'est pas logique...