Q1) Ma question est : lorsqu'on souhaite mettre en place du RAID 1
soft sur 2 disques avec une partition GPT, comment faut-il faire
avec un Bios-UEFI et avec un Bios-legacy ?
Par exemple avec un Bios-legacy j'ai repris le découpage B)
ci-dessus sauf que j'ai mis le type RAID pour la partition B.3. et
la B.4. et j'ai simplement demandé à l'installateur d'installer Grub
sur /dev/sda *et* /dev/sdb mais à la fin de l'installation, ça ne
boote pas.
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
mais l'installateur ne me propose pas ce type pour un volume RAID.
En Bios-UEFI, je n'ai pas eu encore le temps de faire des essais mais
j'aimerais bien savoir comment on s'y prend également. D'après ce que
je lis ici où là sur le Web, il faut créer une partition de type "UEFI"
sur sda et sdb (et donc pas de type RAID) et demander à l'installateur
d'installer Grub sur sda *et* sdb, est-ce correct ?
Q1) Ma question est : lorsqu'on souhaite mettre en place du RAID 1
soft sur 2 disques avec une partition GPT, comment faut-il faire
avec un Bios-UEFI et avec un Bios-legacy ?
Par exemple avec un Bios-legacy j'ai repris le découpage B)
ci-dessus sauf que j'ai mis le type RAID pour la partition B.3. et
la B.4. et j'ai simplement demandé à l'installateur d'installer Grub
sur /dev/sda *et* /dev/sdb mais à la fin de l'installation, ça ne
boote pas.
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
mais l'installateur ne me propose pas ce type pour un volume RAID.
En Bios-UEFI, je n'ai pas eu encore le temps de faire des essais mais
j'aimerais bien savoir comment on s'y prend également. D'après ce que
je lis ici où là sur le Web, il faut créer une partition de type "UEFI"
sur sda et sdb (et donc pas de type RAID) et demander à l'installateur
d'installer Grub sur sda *et* sdb, est-ce correct ?
Q1) Ma question est : lorsqu'on souhaite mettre en place du RAID 1
soft sur 2 disques avec une partition GPT, comment faut-il faire
avec un Bios-UEFI et avec un Bios-legacy ?
Par exemple avec un Bios-legacy j'ai repris le découpage B)
ci-dessus sauf que j'ai mis le type RAID pour la partition B.3. et
la B.4. et j'ai simplement demandé à l'installateur d'installer Grub
sur /dev/sda *et* /dev/sdb mais à la fin de l'installation, ça ne
boote pas.
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
mais l'installateur ne me propose pas ce type pour un volume RAID.
En Bios-UEFI, je n'ai pas eu encore le temps de faire des essais mais
j'aimerais bien savoir comment on s'y prend également. D'après ce que
je lis ici où là sur le Web, il faut créer une partition de type "UEFI"
sur sda et sdb (et donc pas de type RAID) et demander à l'installateur
d'installer Grub sur sda *et* sdb, est-ce correct ?
Pour le RAID en UEFI avec Debian, j'avais commis ceci :
<https://www.debian-fr.org/raid-logiciel-linux-et-amorcage-en-uefi-t50873.html>
Par exemple avec un Bios-legacy j'ai repris le découpage B)
ci-dessus sauf que j'ai mis le type RAID pour la partition B.3. et
la B.4. et j'ai simplement demandé à l'installateur d'installer Grub
sur /dev/sda *et* /dev/sdb mais à la fin de l'installation, ça ne
boote pas.
Ça devrait. Que se passe-t-il exactement ?
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
Mauvaise idée. Pour le BIOS et la boot image, il n'y a pas de RAID.
mais l'installateur ne me propose pas ce type pour un volume RAID.
Normal, c'est un identifiant de type de partition. Ce n'est pas
applicable à un ensemble RAID.
En Bios-UEFI, je n'ai pas eu encore le temps de faire des essais mais
j'aimerais bien savoir comment on s'y prend également. D'après ce que
je lis ici où là sur le Web, il faut créer une partition de type "UEFI"
sur sda et sdb (et donc pas de type RAID) et demander à l'installateur
d'installer Grub sur sda *et* sdb, est-ce correct ?
C'est un poil plus compliqué, voir le lien ci-dessus. En UEFI on
n'indique pas à grub-install sur sur quel périphérique installer le
chargeur. Il l'installe par défaut dans la partition système EFI qui
doit être montée au préalable sur /boot/efi. Les versions assez récentes
de GRUB 2 ont une option pour sélectionner un autre emplacement, mais je
ne l'ai pas testée, ayant fait mes expérimentations avec une version
plus ancienne.
Pour le RAID en UEFI avec Debian, j'avais commis ceci :
<https://www.debian-fr.org/raid-logiciel-linux-et-amorcage-en-uefi-t50873.html>
Par exemple avec un Bios-legacy j'ai repris le découpage B)
ci-dessus sauf que j'ai mis le type RAID pour la partition B.3. et
la B.4. et j'ai simplement demandé à l'installateur d'installer Grub
sur /dev/sda *et* /dev/sdb mais à la fin de l'installation, ça ne
boote pas.
Ça devrait. Que se passe-t-il exactement ?
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
Mauvaise idée. Pour le BIOS et la boot image, il n'y a pas de RAID.
mais l'installateur ne me propose pas ce type pour un volume RAID.
Normal, c'est un identifiant de type de partition. Ce n'est pas
applicable à un ensemble RAID.
En Bios-UEFI, je n'ai pas eu encore le temps de faire des essais mais
j'aimerais bien savoir comment on s'y prend également. D'après ce que
je lis ici où là sur le Web, il faut créer une partition de type "UEFI"
sur sda et sdb (et donc pas de type RAID) et demander à l'installateur
d'installer Grub sur sda *et* sdb, est-ce correct ?
C'est un poil plus compliqué, voir le lien ci-dessus. En UEFI on
n'indique pas à grub-install sur sur quel périphérique installer le
chargeur. Il l'installe par défaut dans la partition système EFI qui
doit être montée au préalable sur /boot/efi. Les versions assez récentes
de GRUB 2 ont une option pour sélectionner un autre emplacement, mais je
ne l'ai pas testée, ayant fait mes expérimentations avec une version
plus ancienne.
Pour le RAID en UEFI avec Debian, j'avais commis ceci :
<https://www.debian-fr.org/raid-logiciel-linux-et-amorcage-en-uefi-t50873.html>
Par exemple avec un Bios-legacy j'ai repris le découpage B)
ci-dessus sauf que j'ai mis le type RAID pour la partition B.3. et
la B.4. et j'ai simplement demandé à l'installateur d'installer Grub
sur /dev/sda *et* /dev/sdb mais à la fin de l'installation, ça ne
boote pas.
Ça devrait. Que se passe-t-il exactement ?
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
Mauvaise idée. Pour le BIOS et la boot image, il n'y a pas de RAID.
mais l'installateur ne me propose pas ce type pour un volume RAID.
Normal, c'est un identifiant de type de partition. Ce n'est pas
applicable à un ensemble RAID.
En Bios-UEFI, je n'ai pas eu encore le temps de faire des essais mais
j'aimerais bien savoir comment on s'y prend également. D'après ce que
je lis ici où là sur le Web, il faut créer une partition de type "UEFI"
sur sda et sdb (et donc pas de type RAID) et demander à l'installateur
d'installer Grub sur sda *et* sdb, est-ce correct ?
C'est un poil plus compliqué, voir le lien ci-dessus. En UEFI on
n'indique pas à grub-install sur sur quel périphérique installer le
chargeur. Il l'installe par défaut dans la partition système EFI qui
doit être montée au préalable sur /boot/efi. Les versions assez récentes
de GRUB 2 ont une option pour sélectionner un autre emplacement, mais je
ne l'ai pas testée, ayant fait mes expérimentations avec une version
plus ancienne.
et ensuite, plus aucune question ne m'est posée
jusqu'à Grub. Là, j'indique explicitement que je veux que
Grub soit installé au niveau de /dev/sda (je précise manuellement
le nom du device). Ensuite, l'installation va à son terme et me
propose le reboot. Là, je retourne en arrière au niveau de la partie
Grub à nouveau pour demander à l'installateur d'installer Grub à
nouveau mais cette fois-ci au niveau de /dev/sdb (pour avoir Grub
installé sur les 2 devices).
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
Mauvaise idée. Pour le BIOS et la boot image, il n'y a pas de RAID.
Ok, c'est noté.
et ensuite, plus aucune question ne m'est posée
jusqu'à Grub. Là, j'indique explicitement que je veux que
Grub soit installé au niveau de /dev/sda (je précise manuellement
le nom du device). Ensuite, l'installation va à son terme et me
propose le reboot. Là, je retourne en arrière au niveau de la partie
Grub à nouveau pour demander à l'installateur d'installer Grub à
nouveau mais cette fois-ci au niveau de /dev/sdb (pour avoir Grub
installé sur les 2 devices).
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
Mauvaise idée. Pour le BIOS et la boot image, il n'y a pas de RAID.
Ok, c'est noté.
et ensuite, plus aucune question ne m'est posée
jusqu'à Grub. Là, j'indique explicitement que je veux que
Grub soit installé au niveau de /dev/sda (je précise manuellement
le nom du device). Ensuite, l'installation va à son terme et me
propose le reboot. Là, je retourne en arrière au niveau de la partie
Grub à nouveau pour demander à l'installateur d'installer Grub à
nouveau mais cette fois-ci au niveau de /dev/sdb (pour avoir Grub
installé sur les 2 devices).
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
Mauvaise idée. Pour le BIOS et la boot image, il n'y a pas de RAID.
Ok, c'est noté.
Par exemple avec un Bios-legacy j'ai repris le découpage B)
ci-dessus sauf que j'ai mis le type RAID pour la partition B.3. et
la B.4. et j'ai simplement demandé à l'installateur d'installer Grub
sur /dev/sda *et* /dev/sdb mais à la fin de l'installation, ça ne
boote pas.
Ça devrait. Que se passe-t-il exactement ?
Alors, j'essaye d'installer une Debian Jessie via une netinstall
PXE, [...]
/dev/sda et /dev/sdb (2 disques à plateau de 2TB identiques), utilisation d'un partitionnement GPT :
sd[ab]1 => une partition de 250 MB de type "non-utilisée" au cas où un jour je décide de basculer le Bios en UEFI
sd[ab]2 => une partition de 1 MB de type "Bios-boot-area"
sd[ab]3 => une partition de 30 GB de type RAID (ce sera les partitions du système en RAID1)
sd[ab]4 => une partition de 64 GB de type RAID (ce sera les partitions de la swap en RAID1)
Ensuite, je me crée les volumes RAID1 suivants:
/dev/md0 => constitué de sda3 et sdb3 en RAID1 (accueillera /)
/dev/md1 => constitué de sda4 et sdb4 en RAID1 (accueillera la swap)
Je ne sais pas si cela a une importante, mais lors de la création
des volumes RAID (via `mdadm --create ...`) j'ai ces messages :
-----------------------------------------------------
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda3 /dev/sdb3 --force --run
mdadm: Note: this array has metadata at the start and may not be
suitable as a boot device If you plan to store /boot on
this device please ensure that your boot-leoder understands
md.v1.x metadata, or use metadata=0.90
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started
-----------------------------------------------------
Q : Au passage, si vous connaissez un moyen de définir les points
de montages, les options de montages, ainsi que les filesystems à
formater sur les différentes partitions en ligne de commandes
dans le prolongement du script ci-dessus, je suis très intéressé.
Dans l'installeur, manuellement, je définis donc les points
de montages, les options de montages etc. Là, il y a un petit
truc qui me chagrine. Lorsque je visualise le partitionnement
dans le menu de l'installateur, je vois la lettre "K" en face
des 2 partitions "biosgrub" ce qui voudrait dire que les partitions
sont laissées intactes par l'installateur.
Or mes nombreuses
tentatives (sans succès) me laissent penser qu'il faut absolument
que l'installateur formate ces 2 partitions.
Ensuite, je définis le point de montage et le fs sur /dev/md0
et /dev/md1 et ensuite, plus aucune question ne m'est posée
jusqu'à Grub. Là, j'indique explicitement que je veux que
Grub soit installé au niveau de /dev/sda (je précise manuellement
le nom du device). Ensuite, l'installation va à son terme et me
propose le reboot. Là, je retourne en arrière au niveau de la partie
Grub à nouveau pour demander à l'installateur d'installer Grub à
nouveau mais cette fois-ci au niveau de /dev/sdb (pour avoir Grub
installé sur les 2 devices). Et là je termine définitivement
l'installation par le reboot.
error: disk `mduuid/d_be60cc06.....738` not found.
Entering rescue mode...
grub rescue>
Par exemple avec un Bios-legacy j'ai repris le découpage B)
ci-dessus sauf que j'ai mis le type RAID pour la partition B.3. et
la B.4. et j'ai simplement demandé à l'installateur d'installer Grub
sur /dev/sda *et* /dev/sdb mais à la fin de l'installation, ça ne
boote pas.
Ça devrait. Que se passe-t-il exactement ?
Alors, j'essaye d'installer une Debian Jessie via une netinstall
PXE, [...]
/dev/sda et /dev/sdb (2 disques à plateau de 2TB identiques), utilisation d'un partitionnement GPT :
sd[ab]1 => une partition de 250 MB de type "non-utilisée" au cas où un jour je décide de basculer le Bios en UEFI
sd[ab]2 => une partition de 1 MB de type "Bios-boot-area"
sd[ab]3 => une partition de 30 GB de type RAID (ce sera les partitions du système en RAID1)
sd[ab]4 => une partition de 64 GB de type RAID (ce sera les partitions de la swap en RAID1)
Ensuite, je me crée les volumes RAID1 suivants:
/dev/md0 => constitué de sda3 et sdb3 en RAID1 (accueillera /)
/dev/md1 => constitué de sda4 et sdb4 en RAID1 (accueillera la swap)
Je ne sais pas si cela a une importante, mais lors de la création
des volumes RAID (via `mdadm --create ...`) j'ai ces messages :
-----------------------------------------------------
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda3 /dev/sdb3 --force --run
mdadm: Note: this array has metadata at the start and may not be
suitable as a boot device If you plan to store /boot on
this device please ensure that your boot-leoder understands
md.v1.x metadata, or use metadata=0.90
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started
-----------------------------------------------------
Q : Au passage, si vous connaissez un moyen de définir les points
de montages, les options de montages, ainsi que les filesystems à
formater sur les différentes partitions en ligne de commandes
dans le prolongement du script ci-dessus, je suis très intéressé.
Dans l'installeur, manuellement, je définis donc les points
de montages, les options de montages etc. Là, il y a un petit
truc qui me chagrine. Lorsque je visualise le partitionnement
dans le menu de l'installateur, je vois la lettre "K" en face
des 2 partitions "biosgrub" ce qui voudrait dire que les partitions
sont laissées intactes par l'installateur.
Or mes nombreuses
tentatives (sans succès) me laissent penser qu'il faut absolument
que l'installateur formate ces 2 partitions.
Ensuite, je définis le point de montage et le fs sur /dev/md0
et /dev/md1 et ensuite, plus aucune question ne m'est posée
jusqu'à Grub. Là, j'indique explicitement que je veux que
Grub soit installé au niveau de /dev/sda (je précise manuellement
le nom du device). Ensuite, l'installation va à son terme et me
propose le reboot. Là, je retourne en arrière au niveau de la partie
Grub à nouveau pour demander à l'installateur d'installer Grub à
nouveau mais cette fois-ci au niveau de /dev/sdb (pour avoir Grub
installé sur les 2 devices). Et là je termine définitivement
l'installation par le reboot.
error: disk `mduuid/d_be60cc06.....738` not found.
Entering rescue mode...
grub rescue>
Par exemple avec un Bios-legacy j'ai repris le découpage B)
ci-dessus sauf que j'ai mis le type RAID pour la partition B.3. et
la B.4. et j'ai simplement demandé à l'installateur d'installer Grub
sur /dev/sda *et* /dev/sdb mais à la fin de l'installation, ça ne
boote pas.
Ça devrait. Que se passe-t-il exactement ?
Alors, j'essaye d'installer une Debian Jessie via une netinstall
PXE, [...]
/dev/sda et /dev/sdb (2 disques à plateau de 2TB identiques), utilisation d'un partitionnement GPT :
sd[ab]1 => une partition de 250 MB de type "non-utilisée" au cas où un jour je décide de basculer le Bios en UEFI
sd[ab]2 => une partition de 1 MB de type "Bios-boot-area"
sd[ab]3 => une partition de 30 GB de type RAID (ce sera les partitions du système en RAID1)
sd[ab]4 => une partition de 64 GB de type RAID (ce sera les partitions de la swap en RAID1)
Ensuite, je me crée les volumes RAID1 suivants:
/dev/md0 => constitué de sda3 et sdb3 en RAID1 (accueillera /)
/dev/md1 => constitué de sda4 et sdb4 en RAID1 (accueillera la swap)
Je ne sais pas si cela a une importante, mais lors de la création
des volumes RAID (via `mdadm --create ...`) j'ai ces messages :
-----------------------------------------------------
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda3 /dev/sdb3 --force --run
mdadm: Note: this array has metadata at the start and may not be
suitable as a boot device If you plan to store /boot on
this device please ensure that your boot-leoder understands
md.v1.x metadata, or use metadata=0.90
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started
-----------------------------------------------------
Q : Au passage, si vous connaissez un moyen de définir les points
de montages, les options de montages, ainsi que les filesystems à
formater sur les différentes partitions en ligne de commandes
dans le prolongement du script ci-dessus, je suis très intéressé.
Dans l'installeur, manuellement, je définis donc les points
de montages, les options de montages etc. Là, il y a un petit
truc qui me chagrine. Lorsque je visualise le partitionnement
dans le menu de l'installateur, je vois la lettre "K" en face
des 2 partitions "biosgrub" ce qui voudrait dire que les partitions
sont laissées intactes par l'installateur.
Or mes nombreuses
tentatives (sans succès) me laissent penser qu'il faut absolument
que l'installateur formate ces 2 partitions.
Ensuite, je définis le point de montage et le fs sur /dev/md0
et /dev/md1 et ensuite, plus aucune question ne m'est posée
jusqu'à Grub. Là, j'indique explicitement que je veux que
Grub soit installé au niveau de /dev/sda (je précise manuellement
le nom du device). Ensuite, l'installation va à son terme et me
propose le reboot. Là, je retourne en arrière au niveau de la partie
Grub à nouveau pour demander à l'installateur d'installer Grub à
nouveau mais cette fois-ci au niveau de /dev/sdb (pour avoir Grub
installé sur les 2 devices). Et là je termine définitivement
l'installation par le reboot.
error: disk `mduuid/d_be60cc06.....738` not found.
Entering rescue mode...
grub rescue>
Ah, je crois que j'ai trouvé. C'est là où je me suis mélangé les
crayons. À la question "voulez-vous installer Grub sur le MBR",
je répondais "non" et ensuite je choisissais /dev/sda et je
recommençais à l'identique avec /dev/sdb. Mais en fait, il faut
que je réponde "oui" à la question et ensuite je choisis
/dev/sda puis je recommence à nouveau en choisissant /dev/sdb.
En revanche, il faudrait que je teste avec un disque en moins
pour être sûr que ça boote bien malgré tout.
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
Mauvaise idée. Pour le BIOS et la boot image, il n'y a pas de RAID.
Ok, c'est noté.
En fait, ça m'interpelle un peu tout ça. Pas de RAID au niveau du
Grub qui est installé 2 fois : sur sda et sur sdb, ok.
Mais que se
passe-t-il en cas de mise à jour du noyau ou bien si je décide
d'ajouter une option de boot (via /etc/default/grub et update-grub) ?
Est-ce que ce sont les 2 installations de Grub (sur sda _et_ sdb)
qui seront mises à jour (et auquel cas tout va bien) ou alors c'est
seulement l'une des deux (et auquel cas on peut avoir des mauvaises
surprises par exemple si un des disques est HS et le Bios fait appel
à l'autre Grub qui n'a pas subit les mises jour).
J'ai sous les yeux un serveur dont la partition /boot est est en RAID1
(c'est une Wheezy et le serveur a très probablement un bios non UEFI,
donc legacy). Donc avoir le Grub sur une partition RAID1 directement
ça doit être possible sous certaines conditions, non ?
Ah, je crois que j'ai trouvé. C'est là où je me suis mélangé les
crayons. À la question "voulez-vous installer Grub sur le MBR",
je répondais "non" et ensuite je choisissais /dev/sda et je
recommençais à l'identique avec /dev/sdb. Mais en fait, il faut
que je réponde "oui" à la question et ensuite je choisis
/dev/sda puis je recommence à nouveau en choisissant /dev/sdb.
En revanche, il faudrait que je teste avec un disque en moins
pour être sûr que ça boote bien malgré tout.
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
Mauvaise idée. Pour le BIOS et la boot image, il n'y a pas de RAID.
Ok, c'est noté.
En fait, ça m'interpelle un peu tout ça. Pas de RAID au niveau du
Grub qui est installé 2 fois : sur sda et sur sdb, ok.
Mais que se
passe-t-il en cas de mise à jour du noyau ou bien si je décide
d'ajouter une option de boot (via /etc/default/grub et update-grub) ?
Est-ce que ce sont les 2 installations de Grub (sur sda _et_ sdb)
qui seront mises à jour (et auquel cas tout va bien) ou alors c'est
seulement l'une des deux (et auquel cas on peut avoir des mauvaises
surprises par exemple si un des disques est HS et le Bios fait appel
à l'autre Grub qui n'a pas subit les mises jour).
J'ai sous les yeux un serveur dont la partition /boot est est en RAID1
(c'est une Wheezy et le serveur a très probablement un bios non UEFI,
donc legacy). Donc avoir le Grub sur une partition RAID1 directement
ça doit être possible sous certaines conditions, non ?
Ah, je crois que j'ai trouvé. C'est là où je me suis mélangé les
crayons. À la question "voulez-vous installer Grub sur le MBR",
je répondais "non" et ensuite je choisissais /dev/sda et je
recommençais à l'identique avec /dev/sdb. Mais en fait, il faut
que je réponde "oui" à la question et ensuite je choisis
/dev/sda puis je recommence à nouveau en choisissant /dev/sdb.
En revanche, il faudrait que je teste avec un disque en moins
pour être sûr que ça boote bien malgré tout.
J'ai aussi tenté de mettre en type RAID la partition B.2.
et ensuite de définir le volume RAID1 correspondant à ces 2 partitions
(ie la partition B.2. sur sda et B.2 sur sdb) en type "Bios-boot-area"
Mauvaise idée. Pour le BIOS et la boot image, il n'y a pas de RAID.
Ok, c'est noté.
En fait, ça m'interpelle un peu tout ça. Pas de RAID au niveau du
Grub qui est installé 2 fois : sur sda et sur sdb, ok.
Mais que se
passe-t-il en cas de mise à jour du noyau ou bien si je décide
d'ajouter une option de boot (via /etc/default/grub et update-grub) ?
Est-ce que ce sont les 2 installations de Grub (sur sda _et_ sdb)
qui seront mises à jour (et auquel cas tout va bien) ou alors c'est
seulement l'une des deux (et auquel cas on peut avoir des mauvaises
surprises par exemple si un des disques est HS et le Bios fait appel
à l'autre Grub qui n'a pas subit les mises jour).
J'ai sous les yeux un serveur dont la partition /boot est est en RAID1
(c'est une Wheezy et le serveur a très probablement un bios non UEFI,
donc legacy). Donc avoir le Grub sur une partition RAID1 directement
ça doit être possible sous certaines conditions, non ?
Alors, j'essaye d'installer une Debian Jessie via une netinstall
PXE, [...]
Je n'en demandais pas tant, juste ce qui se passe au démarrage.
/dev/sda et /dev/sdb (2 disques à plateau de 2TB identiques), utilisation d'un partitionnement GPT :
sd[ab]1 => une partition de 250 MB de type "non-utilisée" au cas où un jour je décide de basculer le Bios en UEFI
sd[ab]2 => une partition de 1 MB de type "Bios-boot-area"
sd[ab]3 => une partition de 30 GB de type RAID (ce sera les partitions du système en RAID1)
sd[ab]4 => une partition de 64 GB de type RAID (ce sera les partitions de la swap en RAID1)
Ça fait beaucoup de swap. C'est la première fois que je vois un swap
plus gros que l'espace alloué au système.
Aussi, pourquoi utiliser des disques aussi gros pour en occuper moins de
100 Go. Il n'y a pas plus petit ?
Je ne sais pas si cela a une importante, mais lors de la création
des volumes RAID (via `mdadm --create ...`) j'ai ces messages :
-----------------------------------------------------
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda3 /dev/sdb3 --force --run
mdadm: Note: this array has metadata at the start and may not be
suitable as a boot device If you plan to store /boot on
this device please ensure that your boot-leoder understands
md.v1.x metadata, or use metadata=0.90
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started
-----------------------------------------------------
Aucune importance.
Q : Au passage, si vous connaissez un moyen de définir les points
de montages, les options de montages, ainsi que les filesystems à
formater sur les différentes partitions en ligne de commandes
dans le prolongement du script ci-dessus, je suis très intéressé.
Pour créer un système de fichiers : mkfs.<fstype>.
Pour créer un swap : mkswap.
La racine du système à installer doit être montée sur /target et les
autres systèmes de fichiers montés sur leurs points de montage
respectifs de cette future racine sous /target, mais je ne sais pas
comment l'installateur va réagir si on ne passe pas par partman pour
définir la racine et compagnie.
Dans l'installeur, manuellement, je définis donc les points
de montages, les options de montages etc. Là, il y a un petit
truc qui me chagrine. Lorsque je visualise le partitionnement
dans le menu de l'installateur, je vois la lettre "K" en face
des 2 partitions "biosgrub" ce qui voudrait dire que les partitions
sont laissées intactes par l'installateur.
Oui.Or mes nombreuses
tentatives (sans succès) me laissent penser qu'il faut absolument
que l'installateur formate ces 2 partitions.
Non, cette partition n'a absolument pas besoin d'être formatée. Tout
formatage sera détruit lorsque grub-install y mettra la core image du
chargeur.
Ensuite, je définis le point de montage et le fs sur /dev/md0
et /dev/md1 et ensuite, plus aucune question ne m'est posée
jusqu'à Grub. Là, j'indique explicitement que je veux que
Grub soit installé au niveau de /dev/sda (je précise manuellement
le nom du device). Ensuite, l'installation va à son terme et me
propose le reboot. Là, je retourne en arrière au niveau de la partie
Grub à nouveau pour demander à l'installateur d'installer Grub à
nouveau mais cette fois-ci au niveau de /dev/sdb (pour avoir Grub
installé sur les 2 devices). Et là je termine définitivement
l'installation par le reboot.
En mode expert, il me semble qu'il est possible de spécifier plusieurs
emplacements en même temps. Ou alors c'est seulement quand on exécute
dpkg-reconfigure grub-pc ?
error: disk `mduuid/d_be60cc06.....738` not found.
Entering rescue mode...
grub rescue>
Bon, ça exécute au moins la core image de GRUB. Mais je suppose qu'elle
ne voit pas le volume contenant /boot/grub.
Qu'affichent "ls" (pour afficher les disques, partitions, volumes RAID
et LVM connus) et set (pour afficher les variables d'environnement dont
root et prefix) ?
Un UUID de volume RAID qui contient un "_", ça me semble bizarre.
Alors, j'essaye d'installer une Debian Jessie via une netinstall
PXE, [...]
Je n'en demandais pas tant, juste ce qui se passe au démarrage.
/dev/sda et /dev/sdb (2 disques à plateau de 2TB identiques), utilisation d'un partitionnement GPT :
sd[ab]1 => une partition de 250 MB de type "non-utilisée" au cas où un jour je décide de basculer le Bios en UEFI
sd[ab]2 => une partition de 1 MB de type "Bios-boot-area"
sd[ab]3 => une partition de 30 GB de type RAID (ce sera les partitions du système en RAID1)
sd[ab]4 => une partition de 64 GB de type RAID (ce sera les partitions de la swap en RAID1)
Ça fait beaucoup de swap. C'est la première fois que je vois un swap
plus gros que l'espace alloué au système.
Aussi, pourquoi utiliser des disques aussi gros pour en occuper moins de
100 Go. Il n'y a pas plus petit ?
Je ne sais pas si cela a une importante, mais lors de la création
des volumes RAID (via `mdadm --create ...`) j'ai ces messages :
-----------------------------------------------------
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda3 /dev/sdb3 --force --run
mdadm: Note: this array has metadata at the start and may not be
suitable as a boot device If you plan to store /boot on
this device please ensure that your boot-leoder understands
md.v1.x metadata, or use metadata=0.90
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started
-----------------------------------------------------
Aucune importance.
Q : Au passage, si vous connaissez un moyen de définir les points
de montages, les options de montages, ainsi que les filesystems à
formater sur les différentes partitions en ligne de commandes
dans le prolongement du script ci-dessus, je suis très intéressé.
Pour créer un système de fichiers : mkfs.<fstype>.
Pour créer un swap : mkswap.
La racine du système à installer doit être montée sur /target et les
autres systèmes de fichiers montés sur leurs points de montage
respectifs de cette future racine sous /target, mais je ne sais pas
comment l'installateur va réagir si on ne passe pas par partman pour
définir la racine et compagnie.
Dans l'installeur, manuellement, je définis donc les points
de montages, les options de montages etc. Là, il y a un petit
truc qui me chagrine. Lorsque je visualise le partitionnement
dans le menu de l'installateur, je vois la lettre "K" en face
des 2 partitions "biosgrub" ce qui voudrait dire que les partitions
sont laissées intactes par l'installateur.
Oui.
Or mes nombreuses
tentatives (sans succès) me laissent penser qu'il faut absolument
que l'installateur formate ces 2 partitions.
Non, cette partition n'a absolument pas besoin d'être formatée. Tout
formatage sera détruit lorsque grub-install y mettra la core image du
chargeur.
Ensuite, je définis le point de montage et le fs sur /dev/md0
et /dev/md1 et ensuite, plus aucune question ne m'est posée
jusqu'à Grub. Là, j'indique explicitement que je veux que
Grub soit installé au niveau de /dev/sda (je précise manuellement
le nom du device). Ensuite, l'installation va à son terme et me
propose le reboot. Là, je retourne en arrière au niveau de la partie
Grub à nouveau pour demander à l'installateur d'installer Grub à
nouveau mais cette fois-ci au niveau de /dev/sdb (pour avoir Grub
installé sur les 2 devices). Et là je termine définitivement
l'installation par le reboot.
En mode expert, il me semble qu'il est possible de spécifier plusieurs
emplacements en même temps. Ou alors c'est seulement quand on exécute
dpkg-reconfigure grub-pc ?
error: disk `mduuid/d_be60cc06.....738` not found.
Entering rescue mode...
grub rescue>
Bon, ça exécute au moins la core image de GRUB. Mais je suppose qu'elle
ne voit pas le volume contenant /boot/grub.
Qu'affichent "ls" (pour afficher les disques, partitions, volumes RAID
et LVM connus) et set (pour afficher les variables d'environnement dont
root et prefix) ?
Un UUID de volume RAID qui contient un "_", ça me semble bizarre.
Alors, j'essaye d'installer une Debian Jessie via une netinstall
PXE, [...]
Je n'en demandais pas tant, juste ce qui se passe au démarrage.
/dev/sda et /dev/sdb (2 disques à plateau de 2TB identiques), utilisation d'un partitionnement GPT :
sd[ab]1 => une partition de 250 MB de type "non-utilisée" au cas où un jour je décide de basculer le Bios en UEFI
sd[ab]2 => une partition de 1 MB de type "Bios-boot-area"
sd[ab]3 => une partition de 30 GB de type RAID (ce sera les partitions du système en RAID1)
sd[ab]4 => une partition de 64 GB de type RAID (ce sera les partitions de la swap en RAID1)
Ça fait beaucoup de swap. C'est la première fois que je vois un swap
plus gros que l'espace alloué au système.
Aussi, pourquoi utiliser des disques aussi gros pour en occuper moins de
100 Go. Il n'y a pas plus petit ?
Je ne sais pas si cela a une importante, mais lors de la création
des volumes RAID (via `mdadm --create ...`) j'ai ces messages :
-----------------------------------------------------
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda3 /dev/sdb3 --force --run
mdadm: Note: this array has metadata at the start and may not be
suitable as a boot device If you plan to store /boot on
this device please ensure that your boot-leoder understands
md.v1.x metadata, or use metadata=0.90
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started
-----------------------------------------------------
Aucune importance.
Q : Au passage, si vous connaissez un moyen de définir les points
de montages, les options de montages, ainsi que les filesystems à
formater sur les différentes partitions en ligne de commandes
dans le prolongement du script ci-dessus, je suis très intéressé.
Pour créer un système de fichiers : mkfs.<fstype>.
Pour créer un swap : mkswap.
La racine du système à installer doit être montée sur /target et les
autres systèmes de fichiers montés sur leurs points de montage
respectifs de cette future racine sous /target, mais je ne sais pas
comment l'installateur va réagir si on ne passe pas par partman pour
définir la racine et compagnie.
Dans l'installeur, manuellement, je définis donc les points
de montages, les options de montages etc. Là, il y a un petit
truc qui me chagrine. Lorsque je visualise le partitionnement
dans le menu de l'installateur, je vois la lettre "K" en face
des 2 partitions "biosgrub" ce qui voudrait dire que les partitions
sont laissées intactes par l'installateur.
Oui.Or mes nombreuses
tentatives (sans succès) me laissent penser qu'il faut absolument
que l'installateur formate ces 2 partitions.
Non, cette partition n'a absolument pas besoin d'être formatée. Tout
formatage sera détruit lorsque grub-install y mettra la core image du
chargeur.
Ensuite, je définis le point de montage et le fs sur /dev/md0
et /dev/md1 et ensuite, plus aucune question ne m'est posée
jusqu'à Grub. Là, j'indique explicitement que je veux que
Grub soit installé au niveau de /dev/sda (je précise manuellement
le nom du device). Ensuite, l'installation va à son terme et me
propose le reboot. Là, je retourne en arrière au niveau de la partie
Grub à nouveau pour demander à l'installateur d'installer Grub à
nouveau mais cette fois-ci au niveau de /dev/sdb (pour avoir Grub
installé sur les 2 devices). Et là je termine définitivement
l'installation par le reboot.
En mode expert, il me semble qu'il est possible de spécifier plusieurs
emplacements en même temps. Ou alors c'est seulement quand on exécute
dpkg-reconfigure grub-pc ?
error: disk `mduuid/d_be60cc06.....738` not found.
Entering rescue mode...
grub rescue>
Bon, ça exécute au moins la core image de GRUB. Mais je suppose qu'elle
ne voit pas le volume contenant /boot/grub.
Qu'affichent "ls" (pour afficher les disques, partitions, volumes RAID
et LVM connus) et set (pour afficher les variables d'environnement dont
root et prefix) ?
Un UUID de volume RAID qui contient un "_", ça me semble bizarre.
Ah, je crois que j'ai trouvé. C'est là où je me suis mélangé les
crayons. À la question "voulez-vous installer Grub sur le MBR",
je répondais "non" et ensuite je choisissais /dev/sda et je
recommençais à l'identique avec /dev/sdb. Mais en fait, il faut
que je réponde "oui" à la question et ensuite je choisis
/dev/sda puis je recommence à nouveau en choisissant /dev/sdb.
Normalement ça devrait revenir au même.
En revanche, il faudrait que je teste avec un disque en moins
pour être sûr que ça boote bien malgré tout.
Depuis Jessie tu auras une mauvaise surprise : les ensembles RAID
comportant moins de membres qu'attendu (autrement dit un membre manquant
mais pas marqué comme tel dans les autres membres) ne sont pas assemblés
automatiquement et on tombe dans le shell de l'initramfs.
Mais ce n'est
pas gênant pour tester le boot en lui-même, à ce stade on est déjà au delà.
En fait, ça m'interpelle un peu tout ça. Pas de RAID au niveau du
Grub qui est installé 2 fois : sur sda et sur sdb, ok.
C'est cela.Mais que se
passe-t-il en cas de mise à jour du noyau ou bien si je décide
d'ajouter une option de boot (via /etc/default/grub et update-grub) ?
Rien de spécial.Est-ce que ce sont les 2 installations de Grub (sur sda _et_ sdb)
qui seront mises à jour (et auquel cas tout va bien) ou alors c'est
seulement l'une des deux (et auquel cas on peut avoir des mauvaises
surprises par exemple si un des disques est HS et le Bios fait appel
à l'autre Grub qui n'a pas subit les mises jour).
Contrairement à LILO le chargeur GRUB n'a pas besoin d'être réinstallé.
C'est seulement le fichier de configuration /boot/grub/grub.cfg qui sera
regénéré. Ce fichier, le nouveau noyau et tout le reste est en RAID donc
dupliqué sur les deux disques.
C'est seulement en cas de mise à jour ou réinstallation du paquet
grub-pc que le chargeur d'amorçage sera réinstallé. Pour qu'il soit
réinstallé automatiquement dans les deux emplacements, il faut qu'ils
soient définis dans debconf. A vérifier avec
debconf-show grub-pcJ'ai sous les yeux un serveur dont la partition /boot est est en RAID1
(c'est une Wheezy et le serveur a très probablement un bios non UEFI,
donc legacy). Donc avoir le Grub sur une partition RAID1 directement
ça doit être possible sous certaines conditions, non ?
Attention : ne pas confondre le système de fichiers qui contient /boot
(qu'il soit intégré à la racine ou séparé) et la partition "BIOS boot"
réservée à GRUB. Ton /boot est sur sur la racine qui est en RAID.
La partition BIOS boot est lue par la boot image de GRUB (stockée dans
le MBR), qui ne sait pas lire le format RAID logiciel. En revanche
/boot/grub est lu par la core image de GRUB (stockée dans la partition
BIOS boot) qui peut être construite pour savoir lire le format RAID
logiciel.
Ah, je crois que j'ai trouvé. C'est là où je me suis mélangé les
crayons. À la question "voulez-vous installer Grub sur le MBR",
je répondais "non" et ensuite je choisissais /dev/sda et je
recommençais à l'identique avec /dev/sdb. Mais en fait, il faut
que je réponde "oui" à la question et ensuite je choisis
/dev/sda puis je recommence à nouveau en choisissant /dev/sdb.
Normalement ça devrait revenir au même.
En revanche, il faudrait que je teste avec un disque en moins
pour être sûr que ça boote bien malgré tout.
Depuis Jessie tu auras une mauvaise surprise : les ensembles RAID
comportant moins de membres qu'attendu (autrement dit un membre manquant
mais pas marqué comme tel dans les autres membres) ne sont pas assemblés
automatiquement et on tombe dans le shell de l'initramfs.
Mais ce n'est
pas gênant pour tester le boot en lui-même, à ce stade on est déjà au delà.
En fait, ça m'interpelle un peu tout ça. Pas de RAID au niveau du
Grub qui est installé 2 fois : sur sda et sur sdb, ok.
C'est cela.
Mais que se
passe-t-il en cas de mise à jour du noyau ou bien si je décide
d'ajouter une option de boot (via /etc/default/grub et update-grub) ?
Rien de spécial.
Est-ce que ce sont les 2 installations de Grub (sur sda _et_ sdb)
qui seront mises à jour (et auquel cas tout va bien) ou alors c'est
seulement l'une des deux (et auquel cas on peut avoir des mauvaises
surprises par exemple si un des disques est HS et le Bios fait appel
à l'autre Grub qui n'a pas subit les mises jour).
Contrairement à LILO le chargeur GRUB n'a pas besoin d'être réinstallé.
C'est seulement le fichier de configuration /boot/grub/grub.cfg qui sera
regénéré. Ce fichier, le nouveau noyau et tout le reste est en RAID donc
dupliqué sur les deux disques.
C'est seulement en cas de mise à jour ou réinstallation du paquet
grub-pc que le chargeur d'amorçage sera réinstallé. Pour qu'il soit
réinstallé automatiquement dans les deux emplacements, il faut qu'ils
soient définis dans debconf. A vérifier avec
debconf-show grub-pc
J'ai sous les yeux un serveur dont la partition /boot est est en RAID1
(c'est une Wheezy et le serveur a très probablement un bios non UEFI,
donc legacy). Donc avoir le Grub sur une partition RAID1 directement
ça doit être possible sous certaines conditions, non ?
Attention : ne pas confondre le système de fichiers qui contient /boot
(qu'il soit intégré à la racine ou séparé) et la partition "BIOS boot"
réservée à GRUB. Ton /boot est sur sur la racine qui est en RAID.
La partition BIOS boot est lue par la boot image de GRUB (stockée dans
le MBR), qui ne sait pas lire le format RAID logiciel. En revanche
/boot/grub est lu par la core image de GRUB (stockée dans la partition
BIOS boot) qui peut être construite pour savoir lire le format RAID
logiciel.
Ah, je crois que j'ai trouvé. C'est là où je me suis mélangé les
crayons. À la question "voulez-vous installer Grub sur le MBR",
je répondais "non" et ensuite je choisissais /dev/sda et je
recommençais à l'identique avec /dev/sdb. Mais en fait, il faut
que je réponde "oui" à la question et ensuite je choisis
/dev/sda puis je recommence à nouveau en choisissant /dev/sdb.
Normalement ça devrait revenir au même.
En revanche, il faudrait que je teste avec un disque en moins
pour être sûr que ça boote bien malgré tout.
Depuis Jessie tu auras une mauvaise surprise : les ensembles RAID
comportant moins de membres qu'attendu (autrement dit un membre manquant
mais pas marqué comme tel dans les autres membres) ne sont pas assemblés
automatiquement et on tombe dans le shell de l'initramfs.
Mais ce n'est
pas gênant pour tester le boot en lui-même, à ce stade on est déjà au delà.
En fait, ça m'interpelle un peu tout ça. Pas de RAID au niveau du
Grub qui est installé 2 fois : sur sda et sur sdb, ok.
C'est cela.Mais que se
passe-t-il en cas de mise à jour du noyau ou bien si je décide
d'ajouter une option de boot (via /etc/default/grub et update-grub) ?
Rien de spécial.Est-ce que ce sont les 2 installations de Grub (sur sda _et_ sdb)
qui seront mises à jour (et auquel cas tout va bien) ou alors c'est
seulement l'une des deux (et auquel cas on peut avoir des mauvaises
surprises par exemple si un des disques est HS et le Bios fait appel
à l'autre Grub qui n'a pas subit les mises jour).
Contrairement à LILO le chargeur GRUB n'a pas besoin d'être réinstallé.
C'est seulement le fichier de configuration /boot/grub/grub.cfg qui sera
regénéré. Ce fichier, le nouveau noyau et tout le reste est en RAID donc
dupliqué sur les deux disques.
C'est seulement en cas de mise à jour ou réinstallation du paquet
grub-pc que le chargeur d'amorçage sera réinstallé. Pour qu'il soit
réinstallé automatiquement dans les deux emplacements, il faut qu'ils
soient définis dans debconf. A vérifier avec
debconf-show grub-pcJ'ai sous les yeux un serveur dont la partition /boot est est en RAID1
(c'est une Wheezy et le serveur a très probablement un bios non UEFI,
donc legacy). Donc avoir le Grub sur une partition RAID1 directement
ça doit être possible sous certaines conditions, non ?
Attention : ne pas confondre le système de fichiers qui contient /boot
(qu'il soit intégré à la racine ou séparé) et la partition "BIOS boot"
réservée à GRUB. Ton /boot est sur sur la racine qui est en RAID.
La partition BIOS boot est lue par la boot image de GRUB (stockée dans
le MBR), qui ne sait pas lire le format RAID logiciel. En revanche
/boot/grub est lu par la core image de GRUB (stockée dans la partition
BIOS boot) qui peut être construite pour savoir lire le format RAID
logiciel.
Ah Ok, merci pour ces explications qui m'aident à y voir un peu plus
clair. Donc si je comprends bien le « noyau » GRUB (petit j'imagine)
est installé dans le MBR mais il passe la main à une deuxième entité
de lui-même, le "core image" (plus gros), qui lui sait lire du RAID
soft (entre autres) dans lequel il trouvera sa conf. Et lors d'un
« update-grub » c'est la conf qui est mise à jour, pas le « noyau »
GRUB du MBR ni le "core image" (qui eux ne bougent pas sauf si le
paquet grub-pc est lui-même mis à jour). Du coup, ma crainte sur un
éventuel problème en cas de mise à jour du noyau ou de l'ajout une
option de boot etc. est levée. ;)
Ah Ok, merci pour ces explications qui m'aident à y voir un peu plus
clair. Donc si je comprends bien le « noyau » GRUB (petit j'imagine)
est installé dans le MBR mais il passe la main à une deuxième entité
de lui-même, le "core image" (plus gros), qui lui sait lire du RAID
soft (entre autres) dans lequel il trouvera sa conf. Et lors d'un
« update-grub » c'est la conf qui est mise à jour, pas le « noyau »
GRUB du MBR ni le "core image" (qui eux ne bougent pas sauf si le
paquet grub-pc est lui-même mis à jour). Du coup, ma crainte sur un
éventuel problème en cas de mise à jour du noyau ou de l'ajout une
option de boot etc. est levée. ;)
Ah Ok, merci pour ces explications qui m'aident à y voir un peu plus
clair. Donc si je comprends bien le « noyau » GRUB (petit j'imagine)
est installé dans le MBR mais il passe la main à une deuxième entité
de lui-même, le "core image" (plus gros), qui lui sait lire du RAID
soft (entre autres) dans lequel il trouvera sa conf. Et lors d'un
« update-grub » c'est la conf qui est mise à jour, pas le « noyau »
GRUB du MBR ni le "core image" (qui eux ne bougent pas sauf si le
paquet grub-pc est lui-même mis à jour). Du coup, ma crainte sur un
éventuel problème en cas de mise à jour du noyau ou de l'ajout une
option de boot etc. est levée. ;)
mais où diable est stocké ce "core image" ?
mais où diable est stocké ce "core image" ?
mais où diable est stocké ce "core image" ?
mais où diable est stocké ce "core image" ?
En général, GRUB le met dans l'espace non partitionné entre le MBR et la
première partition.
mais où diable est stocké ce "core image" ?
En général, GRUB le met dans l'espace non partitionné entre le MBR et la
première partition.
mais où diable est stocké ce "core image" ?
En général, GRUB le met dans l'espace non partitionné entre le MBR et la
première partition.