[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
Joel a écrit :[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
En Raid, ne jamais prendre deux disques identiques et de surcroit de
même modèle! 2 disques de capacité égale font aussi l'affaire sans
pénaliser la gestion du Raid. Et si l'un a une capacité supèrieure à/aux
autre(s) on peut y créer une partition qui ne sera pas en raid et y
mettre des infos non critiques. Par ex, j'y stocke les versions en cours
avant installation de nouvelles.
Joel a écrit :
[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
En Raid, ne jamais prendre deux disques identiques et de surcroit de
même modèle! 2 disques de capacité égale font aussi l'affaire sans
pénaliser la gestion du Raid. Et si l'un a une capacité supèrieure à/aux
autre(s) on peut y créer une partition qui ne sera pas en raid et y
mettre des infos non critiques. Par ex, j'y stocke les versions en cours
avant installation de nouvelles.
Joel a écrit :[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
En Raid, ne jamais prendre deux disques identiques et de surcroit de
même modèle! 2 disques de capacité égale font aussi l'affaire sans
pénaliser la gestion du Raid. Et si l'un a une capacité supèrieure à/aux
autre(s) on peut y créer une partition qui ne sera pas en raid et y
mettre des infos non critiques. Par ex, j'y stocke les versions en cours
avant installation de nouvelles.
daniel huhardeaux a écrit :Joel a écrit :[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
En Raid, ne jamais prendre deux disques identiques et de surcroit de
même modèle! 2 disques de capacité égale font aussi l'affaire sans
pénaliser la gestion du Raid. Et si l'un a une capacité supèrieure
à/aux autre(s) on peut y créer une partition qui ne sera pas en raid
et y mettre des infos non critiques. Par ex, j'y stocke les versions
en cours avant installation de nouvelles.
Le sata n'est pas un vrai hotplug ( on le dis warmplug chez nous) ,
cad qu'il faut redémarer la machine pour prendre en conte l'ajout
d'un disque ou le changement de model de se dernier... donc avec des
disques de model different impossible de changer les disques à chaud !!!!
Les deux solutions sont interessante, le tous est de voire qu'est ce
qui est le plus critique dans l'environnement de production concidéré,
la perte de donné ou l'arret des machines. En se qui me concerne c'est
l'arret de la machine...
daniel huhardeaux a écrit :
Joel a écrit :
[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
En Raid, ne jamais prendre deux disques identiques et de surcroit de
même modèle! 2 disques de capacité égale font aussi l'affaire sans
pénaliser la gestion du Raid. Et si l'un a une capacité supèrieure
à/aux autre(s) on peut y créer une partition qui ne sera pas en raid
et y mettre des infos non critiques. Par ex, j'y stocke les versions
en cours avant installation de nouvelles.
Le sata n'est pas un vrai hotplug ( on le dis warmplug chez nous) ,
cad qu'il faut redémarer la machine pour prendre en conte l'ajout
d'un disque ou le changement de model de se dernier... donc avec des
disques de model different impossible de changer les disques à chaud !!!!
Les deux solutions sont interessante, le tous est de voire qu'est ce
qui est le plus critique dans l'environnement de production concidéré,
la perte de donné ou l'arret des machines. En se qui me concerne c'est
l'arret de la machine...
daniel huhardeaux a écrit :Joel a écrit :[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
En Raid, ne jamais prendre deux disques identiques et de surcroit de
même modèle! 2 disques de capacité égale font aussi l'affaire sans
pénaliser la gestion du Raid. Et si l'un a une capacité supèrieure
à/aux autre(s) on peut y créer une partition qui ne sera pas en raid
et y mettre des infos non critiques. Par ex, j'y stocke les versions
en cours avant installation de nouvelles.
Le sata n'est pas un vrai hotplug ( on le dis warmplug chez nous) ,
cad qu'il faut redémarer la machine pour prendre en conte l'ajout
d'un disque ou le changement de model de se dernier... donc avec des
disques de model different impossible de changer les disques à chaud !!!!
Les deux solutions sont interessante, le tous est de voire qu'est ce
qui est le plus critique dans l'environnement de production concidéré,
la perte de donné ou l'arret des machines. En se qui me concerne c'est
l'arret de la machine...
Michel De Gouveia a écrit :Salut,
Je suis en train d'essayer de configurer le Raid 1 pour un serveur
IBM x346 series avec de disuqes de 73.4 Go qui servira uniquement
pour le Web Hosting.
J'ai essayé avec deux types d'installation :
- Debian Sarge version CD datant de Janvier.
Pas de détection des cartes réseaux Broadcom. On peut utiliser le
module tg3 en attendant de compiler un module plus adapté disponible
en source.
Mais le gros problème c'est qu'il ne détecte pas les deux disques durs.
Je dois essayer avec une version plus récente.
- Ubuntu Warty et Ubuntu Hoary CD Array 5
Détection des cartes réseaux et des deux disques sans aucun problème.
Mais je ne comprends pas bien comment configurer le Raid 1.
Les installateurs semblent proposer une configuration mais fonctionne
t-elle vraiment ?
J'ai configuer les partitions d'un des deux disques.
Le second je devrais normalement le configurer de la même facon mais
en signalant que c'est du raid ???
Après je devrais passer par la configuration du Raid.
Mais je n'ai aucun moyen de vérifier si le Raid est bien actif.
Ou dois-t-on comme j'ai pu le lire sur Internet tout configurer après
l'intallation ?
D'avance merci,
Michel
J'utilise sur tous mes serveurs un raid1+lvm, le tous est configuré
lors de l'install avec un cd sarge. Je mes si dessous un article en
cour de rédaction expliquant briévement la procédure ainsi qu'une
image en piece jointe décrivant le shema des partitions.
joel
#########################################################################
Le sata nouveau est arrivé il y a peu. La plupart des constructeurs
nous proposent sur toute carte mère équipé de sata (Serial ATA) un
system raid 0/1. Et c’est la que le bas (le prix bien sur) blesse. En
effet le raid n’est que semi materiel. Pour en profiter pleinnement il
faut installer un jolie driver propriétaire pour gérer tous cela au
niveau logiciel. Certain constructeur on publier le driver pour linux,
mais l’idéal est d’utiliser le raid fournit par linux qui fonctionne
tres bien, quand on le couple à lvm et lilo on obtient un raid
logiciel des plus convenable.
Dans le present article, seul le raid 1 sera traité (mirroring) dans
le cas d’une nouvelle installation (pas une migration).
Pour l’occasion, nous disposont de :
* 1 cd debian fraichement gravé.
* 1 carte mère SuperMicro P4SCI avec support sata.
* 2 disques dur (strictement identique) sata Western Digital Raptor
10000 rpm (ca marche aussi en ide, pensez a mettre les disque sur des
controleurs séparés [hda, hdc] )
* 1 Geeks ( Si vous n’en avez pas sous la main, vous devriez pouvoir
faire l’affaire ;o) ) voir 2 en redondance (@regit)...
1) Lancement de l’installation
Lancez l’install de votre debian arrivé au partitionnement passé au
paragraphe suivant.
2)Partitionement des disques dur
Partitionnez vos disques selon le schéma ci dessous (voire pj). Au
niveau des volumes logique, mettez autant de volume que de point de
montage (ex : sawp, /, /home, /var ....). Mettez la swap au debut du
volume global pour une mailleur vélocité. Une autre solution
(préconnisé par beacoup) serait de séparer la swap dans une partition
primaire au début du disque dur.
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
- Déchrootez vous et retournez à l’install Ctrl+D Alt+F1
4) Terminez votre installation
5)Premiére aproche
* Verification des partitions :
o fdisk
Vous devriez obtenir quelque chose de similaire :
debian2:/# fdisk /dev/sda
[...]
Command (m for help): p
Disk /dev/sda: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 4500 36146218+ fd Linux raid autodetect
Command (m for help): q
debian2:/# fdisk /dev/sdb
[...]
Command (m for help): p
Disk /dev/sdb: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 4500 36146218+ fd Linux raid autodetect
Command (m for help): q
debian2:/# fdisk /dev/md0
[...]
Command (m for help): p
Disk /dev/md0: 37.0 GB, 37013618688 bytes
2 heads, 4 sectors/track, 9036528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Device Boot Start End Blocks Id System
Command (m for help): q
o mdadm
debian2:/# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.01
Creation Time : Tue Dec 7 16:09:54 2004
Raid Level : raid1
Array Size : 36146112 (34.47 GiB 37.01 GB)
Device Size : 36146112 (34.47 GiB 37.01 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Dec 9 15:41:08 2004
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : dfa65e0e:88f0e391:381f77cc:6d14fce5
Events : 0.2932
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
o lvm
debian2:~# lvmdiskscan
/dev/sda [ 34,48 GB]
/dev/md0 [ 34,47 GB] LVM physical volume
/dev/sda1 [ 34,47 GB]
/dev/sdb [ 34,48 GB]
/dev/sdb1 [ 34,47 GB]
2 disks
2 partitions
0 LVM physical volume whole disks
1 LVM physical volume
debian2:~# pvscan
PV /dev/md0 VG system lvm2 [34,47 GB / 0 free]
Total: 1 [34,47 GB] / in use: 1 [34,47 GB] / in no VG: 0 [0 ]
debian2:~# vgs
VG #PV #LV #SN Attr VSize VFree
system 1 2 0 wz--n 34,47G 0
debian2:~# lvs
LV VG Attr LSize Origin Snap% Move Copy%
racine system -wi-ao 33,97G
swap system -wi-ao 512,00M
Notes :
[1] durant l’install seul nano est disponible
[2] reportez vous au man de lilo et lilo.conf pour plus de détail sur
cette option.
------------------------------------------------------------------------
Michel De Gouveia a écrit :
Salut,
Je suis en train d'essayer de configurer le Raid 1 pour un serveur
IBM x346 series avec de disuqes de 73.4 Go qui servira uniquement
pour le Web Hosting.
J'ai essayé avec deux types d'installation :
- Debian Sarge version CD datant de Janvier.
Pas de détection des cartes réseaux Broadcom. On peut utiliser le
module tg3 en attendant de compiler un module plus adapté disponible
en source.
Mais le gros problème c'est qu'il ne détecte pas les deux disques durs.
Je dois essayer avec une version plus récente.
- Ubuntu Warty et Ubuntu Hoary CD Array 5
Détection des cartes réseaux et des deux disques sans aucun problème.
Mais je ne comprends pas bien comment configurer le Raid 1.
Les installateurs semblent proposer une configuration mais fonctionne
t-elle vraiment ?
J'ai configuer les partitions d'un des deux disques.
Le second je devrais normalement le configurer de la même facon mais
en signalant que c'est du raid ???
Après je devrais passer par la configuration du Raid.
Mais je n'ai aucun moyen de vérifier si le Raid est bien actif.
Ou dois-t-on comme j'ai pu le lire sur Internet tout configurer après
l'intallation ?
D'avance merci,
Michel
J'utilise sur tous mes serveurs un raid1+lvm, le tous est configuré
lors de l'install avec un cd sarge. Je mes si dessous un article en
cour de rédaction expliquant briévement la procédure ainsi qu'une
image en piece jointe décrivant le shema des partitions.
joel
#########################################################################
Le sata nouveau est arrivé il y a peu. La plupart des constructeurs
nous proposent sur toute carte mère équipé de sata (Serial ATA) un
system raid 0/1. Et c’est la que le bas (le prix bien sur) blesse. En
effet le raid n’est que semi materiel. Pour en profiter pleinnement il
faut installer un jolie driver propriétaire pour gérer tous cela au
niveau logiciel. Certain constructeur on publier le driver pour linux,
mais l’idéal est d’utiliser le raid fournit par linux qui fonctionne
tres bien, quand on le couple à lvm et lilo on obtient un raid
logiciel des plus convenable.
Dans le present article, seul le raid 1 sera traité (mirroring) dans
le cas d’une nouvelle installation (pas une migration).
Pour l’occasion, nous disposont de :
* 1 cd debian fraichement gravé.
* 1 carte mère SuperMicro P4SCI avec support sata.
* 2 disques dur (strictement identique) sata Western Digital Raptor
10000 rpm (ca marche aussi en ide, pensez a mettre les disque sur des
controleurs séparés [hda, hdc] )
* 1 Geeks ( Si vous n’en avez pas sous la main, vous devriez pouvoir
faire l’affaire ;o) ) voir 2 en redondance (@regit)...
1) Lancement de l’installation
Lancez l’install de votre debian arrivé au partitionnement passé au
paragraphe suivant.
2)Partitionement des disques dur
Partitionnez vos disques selon le schéma ci dessous (voire pj). Au
niveau des volumes logique, mettez autant de volume que de point de
montage (ex : sawp, /, /home, /var ....). Mettez la swap au debut du
volume global pour une mailleur vélocité. Une autre solution
(préconnisé par beacoup) serait de séparer la swap dans une partition
primaire au début du disque dur.
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
- Déchrootez vous et retournez à l’install Ctrl+D Alt+F1
4) Terminez votre installation
5)Premiére aproche
* Verification des partitions :
o fdisk
Vous devriez obtenir quelque chose de similaire :
debian2:/# fdisk /dev/sda
[...]
Command (m for help): p
Disk /dev/sda: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 4500 36146218+ fd Linux raid autodetect
Command (m for help): q
debian2:/# fdisk /dev/sdb
[...]
Command (m for help): p
Disk /dev/sdb: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 4500 36146218+ fd Linux raid autodetect
Command (m for help): q
debian2:/# fdisk /dev/md0
[...]
Command (m for help): p
Disk /dev/md0: 37.0 GB, 37013618688 bytes
2 heads, 4 sectors/track, 9036528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Device Boot Start End Blocks Id System
Command (m for help): q
o mdadm
debian2:/# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.01
Creation Time : Tue Dec 7 16:09:54 2004
Raid Level : raid1
Array Size : 36146112 (34.47 GiB 37.01 GB)
Device Size : 36146112 (34.47 GiB 37.01 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Dec 9 15:41:08 2004
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : dfa65e0e:88f0e391:381f77cc:6d14fce5
Events : 0.2932
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
o lvm
debian2:~# lvmdiskscan
/dev/sda [ 34,48 GB]
/dev/md0 [ 34,47 GB] LVM physical volume
/dev/sda1 [ 34,47 GB]
/dev/sdb [ 34,48 GB]
/dev/sdb1 [ 34,47 GB]
2 disks
2 partitions
0 LVM physical volume whole disks
1 LVM physical volume
debian2:~# pvscan
PV /dev/md0 VG system lvm2 [34,47 GB / 0 free]
Total: 1 [34,47 GB] / in use: 1 [34,47 GB] / in no VG: 0 [0 ]
debian2:~# vgs
VG #PV #LV #SN Attr VSize VFree
system 1 2 0 wz--n 34,47G 0
debian2:~# lvs
LV VG Attr LSize Origin Snap% Move Copy%
racine system -wi-ao 33,97G
swap system -wi-ao 512,00M
Notes :
[1] durant l’install seul nano est disponible
[2] reportez vous au man de lilo et lilo.conf pour plus de détail sur
cette option.
------------------------------------------------------------------------
Michel De Gouveia a écrit :Salut,
Je suis en train d'essayer de configurer le Raid 1 pour un serveur
IBM x346 series avec de disuqes de 73.4 Go qui servira uniquement
pour le Web Hosting.
J'ai essayé avec deux types d'installation :
- Debian Sarge version CD datant de Janvier.
Pas de détection des cartes réseaux Broadcom. On peut utiliser le
module tg3 en attendant de compiler un module plus adapté disponible
en source.
Mais le gros problème c'est qu'il ne détecte pas les deux disques durs.
Je dois essayer avec une version plus récente.
- Ubuntu Warty et Ubuntu Hoary CD Array 5
Détection des cartes réseaux et des deux disques sans aucun problème.
Mais je ne comprends pas bien comment configurer le Raid 1.
Les installateurs semblent proposer une configuration mais fonctionne
t-elle vraiment ?
J'ai configuer les partitions d'un des deux disques.
Le second je devrais normalement le configurer de la même facon mais
en signalant que c'est du raid ???
Après je devrais passer par la configuration du Raid.
Mais je n'ai aucun moyen de vérifier si le Raid est bien actif.
Ou dois-t-on comme j'ai pu le lire sur Internet tout configurer après
l'intallation ?
D'avance merci,
Michel
J'utilise sur tous mes serveurs un raid1+lvm, le tous est configuré
lors de l'install avec un cd sarge. Je mes si dessous un article en
cour de rédaction expliquant briévement la procédure ainsi qu'une
image en piece jointe décrivant le shema des partitions.
joel
#########################################################################
Le sata nouveau est arrivé il y a peu. La plupart des constructeurs
nous proposent sur toute carte mère équipé de sata (Serial ATA) un
system raid 0/1. Et c’est la que le bas (le prix bien sur) blesse. En
effet le raid n’est que semi materiel. Pour en profiter pleinnement il
faut installer un jolie driver propriétaire pour gérer tous cela au
niveau logiciel. Certain constructeur on publier le driver pour linux,
mais l’idéal est d’utiliser le raid fournit par linux qui fonctionne
tres bien, quand on le couple à lvm et lilo on obtient un raid
logiciel des plus convenable.
Dans le present article, seul le raid 1 sera traité (mirroring) dans
le cas d’une nouvelle installation (pas une migration).
Pour l’occasion, nous disposont de :
* 1 cd debian fraichement gravé.
* 1 carte mère SuperMicro P4SCI avec support sata.
* 2 disques dur (strictement identique) sata Western Digital Raptor
10000 rpm (ca marche aussi en ide, pensez a mettre les disque sur des
controleurs séparés [hda, hdc] )
* 1 Geeks ( Si vous n’en avez pas sous la main, vous devriez pouvoir
faire l’affaire ;o) ) voir 2 en redondance (@regit)...
1) Lancement de l’installation
Lancez l’install de votre debian arrivé au partitionnement passé au
paragraphe suivant.
2)Partitionement des disques dur
Partitionnez vos disques selon le schéma ci dessous (voire pj). Au
niveau des volumes logique, mettez autant de volume que de point de
montage (ex : sawp, /, /home, /var ....). Mettez la swap au debut du
volume global pour une mailleur vélocité. Une autre solution
(préconnisé par beacoup) serait de séparer la swap dans une partition
primaire au début du disque dur.
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
- Déchrootez vous et retournez à l’install Ctrl+D Alt+F1
4) Terminez votre installation
5)Premiére aproche
* Verification des partitions :
o fdisk
Vous devriez obtenir quelque chose de similaire :
debian2:/# fdisk /dev/sda
[...]
Command (m for help): p
Disk /dev/sda: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 4500 36146218+ fd Linux raid autodetect
Command (m for help): q
debian2:/# fdisk /dev/sdb
[...]
Command (m for help): p
Disk /dev/sdb: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 4500 36146218+ fd Linux raid autodetect
Command (m for help): q
debian2:/# fdisk /dev/md0
[...]
Command (m for help): p
Disk /dev/md0: 37.0 GB, 37013618688 bytes
2 heads, 4 sectors/track, 9036528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Device Boot Start End Blocks Id System
Command (m for help): q
o mdadm
debian2:/# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.01
Creation Time : Tue Dec 7 16:09:54 2004
Raid Level : raid1
Array Size : 36146112 (34.47 GiB 37.01 GB)
Device Size : 36146112 (34.47 GiB 37.01 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Dec 9 15:41:08 2004
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : dfa65e0e:88f0e391:381f77cc:6d14fce5
Events : 0.2932
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
o lvm
debian2:~# lvmdiskscan
/dev/sda [ 34,48 GB]
/dev/md0 [ 34,47 GB] LVM physical volume
/dev/sda1 [ 34,47 GB]
/dev/sdb [ 34,48 GB]
/dev/sdb1 [ 34,47 GB]
2 disks
2 partitions
0 LVM physical volume whole disks
1 LVM physical volume
debian2:~# pvscan
PV /dev/md0 VG system lvm2 [34,47 GB / 0 free]
Total: 1 [34,47 GB] / in use: 1 [34,47 GB] / in no VG: 0 [0 ]
debian2:~# vgs
VG #PV #LV #SN Attr VSize VFree
system 1 2 0 wz--n 34,47G 0
debian2:~# lvs
LV VG Attr LSize Origin Snap% Move Copy%
racine system -wi-ao 33,97G
swap system -wi-ao 512,00M
Notes :
[1] durant l’install seul nano est disponible
[2] reportez vous au man de lilo et lilo.conf pour plus de détail sur
cette option.
------------------------------------------------------------------------
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
Pourquoi préférer Lilo à Grub ???
Merci pour toutes ces infos,
Je verrais tout cela tranquillement lundi matin,
Michel
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
Pourquoi préférer Lilo à Grub ???
Merci pour toutes ces infos,
Je verrais tout cela tranquillement lundi matin,
Michel
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
Pourquoi préférer Lilo à Grub ???
Merci pour toutes ces infos,
Je verrais tout cela tranquillement lundi matin,
Michel
Joel a écrit :daniel huhardeaux a écrit :Joel a écrit :[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
En Raid, ne jamais prendre deux disques identiques et de surcroit de
même modèle! 2 disques de capacité égale font aussi l'affaire sans
pénaliser la gestion du Raid. Et si l'un a une capacité supèrieure
à/aux autre(s) on peut y créer une partition qui ne sera pas en raid
et y mettre des infos non critiques. Par ex, j'y stocke les versions
en cours avant installation de nouvelles.
Le sata n'est pas un vrai hotplug ( on le dis warmplug chez nous) ,
cad qu'il faut redémarer la machine pour prendre en conte l'ajout
d'un disque ou le changement de model de se dernier... donc avec des
disques de model different impossible de changer les disques à chaud !!!!
Avec l'Ide c'est la même chose
Les deux solutions sont interessante, le tous est de voire qu'est ce
qui est le plus critique dans l'environnement de production concidéré,
la perte de donné ou l'arret des machines. En se qui me concerne c'est
l'arret de la machine...
Je ne vois pas la relation: tu installes de toute facon ton Raid à
partir d'une machine qui démarre de zéro donc éteinte ;-)
Joel a écrit :
daniel huhardeaux a écrit :
Joel a écrit :
[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
En Raid, ne jamais prendre deux disques identiques et de surcroit de
même modèle! 2 disques de capacité égale font aussi l'affaire sans
pénaliser la gestion du Raid. Et si l'un a une capacité supèrieure
à/aux autre(s) on peut y créer une partition qui ne sera pas en raid
et y mettre des infos non critiques. Par ex, j'y stocke les versions
en cours avant installation de nouvelles.
Le sata n'est pas un vrai hotplug ( on le dis warmplug chez nous) ,
cad qu'il faut redémarer la machine pour prendre en conte l'ajout
d'un disque ou le changement de model de se dernier... donc avec des
disques de model different impossible de changer les disques à chaud !!!!
Avec l'Ide c'est la même chose
Les deux solutions sont interessante, le tous est de voire qu'est ce
qui est le plus critique dans l'environnement de production concidéré,
la perte de donné ou l'arret des machines. En se qui me concerne c'est
l'arret de la machine...
Je ne vois pas la relation: tu installes de toute facon ton Raid à
partir d'une machine qui démarre de zéro donc éteinte ;-)
Joel a écrit :daniel huhardeaux a écrit :Joel a écrit :[...]
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
En Raid, ne jamais prendre deux disques identiques et de surcroit de
même modèle! 2 disques de capacité égale font aussi l'affaire sans
pénaliser la gestion du Raid. Et si l'un a une capacité supèrieure
à/aux autre(s) on peut y créer une partition qui ne sera pas en raid
et y mettre des infos non critiques. Par ex, j'y stocke les versions
en cours avant installation de nouvelles.
Le sata n'est pas un vrai hotplug ( on le dis warmplug chez nous) ,
cad qu'il faut redémarer la machine pour prendre en conte l'ajout
d'un disque ou le changement de model de se dernier... donc avec des
disques de model different impossible de changer les disques à chaud !!!!
Avec l'Ide c'est la même chose
Les deux solutions sont interessante, le tous est de voire qu'est ce
qui est le plus critique dans l'environnement de production concidéré,
la perte de donné ou l'arret des machines. En se qui me concerne c'est
l'arret de la machine...
Je ne vois pas la relation: tu installes de toute facon ton Raid à
partir d'une machine qui démarre de zéro donc éteinte ;-)
Michel De Gouveia a écrit :Salut,
Je suis en train d'essayer de configurer le Raid 1 pour un serveur
IBM x346 series avec de disuqes de 73.4 Go qui servira uniquement
pour le Web Hosting.
J'ai essayé avec deux types d'installation :
- Debian Sarge version CD datant de Janvier.
Pas de détection des cartes réseaux Broadcom. On peut utiliser le
module tg3 en attendant de compiler un module plus adapté disponible
en source.
Mais le gros problème c'est qu'il ne détecte pas les deux disques durs.
Je dois essayer avec une version plus récente.
- Ubuntu Warty et Ubuntu Hoary CD Array 5
Détection des cartes réseaux et des deux disques sans aucun problème.
Mais je ne comprends pas bien comment configurer le Raid 1.
Les installateurs semblent proposer une configuration mais fonctionne
t-elle vraiment ?
J'ai configuer les partitions d'un des deux disques.
Le second je devrais normalement le configurer de la même facon mais
en signalant que c'est du raid ???
Après je devrais passer par la configuration du Raid.
Mais je n'ai aucun moyen de vérifier si le Raid est bien actif.
Ou dois-t-on comme j'ai pu le lire sur Internet tout configurer après
l'intallation ?
D'avance merci,
Michel
J'utilise sur tous mes serveurs un raid1+lvm, le tous est configuré
lors de l'install avec un cd sarge. Je mes si dessous un article en
cour de rédaction expliquant briévement la procédure ainsi qu'une
image en piece jointe décrivant le shema des partitions.
joel
#########################################################################
Le sata nouveau est arrivé il y a peu. La plupart des constructeurs
nous proposent sur toute carte mère équipé de sata (Serial ATA) un
system raid 0/1. Et c’est la que le bas (le prix bien sur) blesse. En
effet le raid n’est que semi materiel. Pour en profiter pleinnement il
faut installer un jolie driver propriétaire pour gérer tous cela au
niveau logiciel. Certain constructeur on publier le driver pour linux,
mais l’idéal est d’utiliser le raid fournit par linux qui fonctionne
tres bien, quand on le couple à lvm et lilo on obtient un raid
logiciel des plus convenable.
Dans le present article, seul le raid 1 sera traité (mirroring) dans
le cas d’une nouvelle installation (pas une migration).
Pour l’occasion, nous disposont de :
* 1 cd debian fraichement gravé.
* 1 carte mère SuperMicro P4SCI avec support sata.
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
* 1 Geeks ( Si vous n’en avez pas sous la main, vous devriez
pouvoir faire l’affaire ;o) ) voir 2 en redondance (@regit)...
1) Lancement de l’installation
Lancez l’install de votre debian arrivé au partitionnement passé au
paragraphe suivant.
2)Partitionement des disques dur
Partitionnez vos disques selon le schéma ci dessous (voire pj). Au
niveau des volumes logique, mettez autant de volume que de point de
montage (ex : sawp, /, /home, /var ....). Mettez la swap au debut du
volume global pour une mailleur vélocité. Une autre solution
(préconnisé par beacoup) serait de séparer la swap dans une partition
primaire au début du disque dur.
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
- Déchrootez vous et retournez à l’install Ctrl+D Alt+F1
4) Terminez votre installation
5)Premiére aproche
* Verification des partitions :
o fdisk
Vous devriez obtenir quelque chose de similaire :
debian2:/# fdisk /dev/sda
[...]
Command (m for help): p
Disk /dev/sda: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/sdb
[...]
Command (m for help): p
Disk /dev/sdb: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/md0
[...]
Command (m for help): p
Disk /dev/md0: 37.0 GB, 37013618688 bytes
2 heads, 4 sectors/track, 9036528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Device Boot Start End Blocks Id System
Command (m for help): q
o mdadm
debian2:/# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.01
Creation Time : Tue Dec 7 16:09:54 2004
Raid Level : raid1
Array Size : 36146112 (34.47 GiB 37.01 GB)
Device Size : 36146112 (34.47 GiB 37.01 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Dec 9 15:41:08 2004
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : dfa65e0e:88f0e391:381f77cc:6d14fce5
Events : 0.2932
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
o lvm
debian2:~# lvmdiskscan
/dev/sda [ 34,48 GB]
/dev/md0 [ 34,47 GB] LVM physical volume
/dev/sda1 [ 34,47 GB]
/dev/sdb [ 34,48 GB]
/dev/sdb1 [ 34,47 GB]
2 disks
2 partitions
0 LVM physical volume whole disks
1 LVM physical volume
debian2:~# pvscan
PV /dev/md0 VG system lvm2 [34,47 GB / 0 free]
Total: 1 [34,47 GB] / in use: 1 [34,47 GB] / in no VG: 0 [0 ]
debian2:~# vgs
VG #PV #LV #SN Attr VSize VFree
system 1 2 0 wz--n 34,47G 0
debian2:~# lvs
LV VG Attr LSize Origin Snap% Move Copy%
racine system -wi-ao 33,97G
swap system -wi-ao 512,00M
Notes :
[1] durant l’install seul nano est disponible
[2] reportez vous au man de lilo et lilo.conf pour plus de détail sur
cette option.
------------------------------------------------------------------------
Michel De Gouveia a écrit :
Salut,
Je suis en train d'essayer de configurer le Raid 1 pour un serveur
IBM x346 series avec de disuqes de 73.4 Go qui servira uniquement
pour le Web Hosting.
J'ai essayé avec deux types d'installation :
- Debian Sarge version CD datant de Janvier.
Pas de détection des cartes réseaux Broadcom. On peut utiliser le
module tg3 en attendant de compiler un module plus adapté disponible
en source.
Mais le gros problème c'est qu'il ne détecte pas les deux disques durs.
Je dois essayer avec une version plus récente.
- Ubuntu Warty et Ubuntu Hoary CD Array 5
Détection des cartes réseaux et des deux disques sans aucun problème.
Mais je ne comprends pas bien comment configurer le Raid 1.
Les installateurs semblent proposer une configuration mais fonctionne
t-elle vraiment ?
J'ai configuer les partitions d'un des deux disques.
Le second je devrais normalement le configurer de la même facon mais
en signalant que c'est du raid ???
Après je devrais passer par la configuration du Raid.
Mais je n'ai aucun moyen de vérifier si le Raid est bien actif.
Ou dois-t-on comme j'ai pu le lire sur Internet tout configurer après
l'intallation ?
D'avance merci,
Michel
J'utilise sur tous mes serveurs un raid1+lvm, le tous est configuré
lors de l'install avec un cd sarge. Je mes si dessous un article en
cour de rédaction expliquant briévement la procédure ainsi qu'une
image en piece jointe décrivant le shema des partitions.
joel
#########################################################################
Le sata nouveau est arrivé il y a peu. La plupart des constructeurs
nous proposent sur toute carte mère équipé de sata (Serial ATA) un
system raid 0/1. Et c’est la que le bas (le prix bien sur) blesse. En
effet le raid n’est que semi materiel. Pour en profiter pleinnement il
faut installer un jolie driver propriétaire pour gérer tous cela au
niveau logiciel. Certain constructeur on publier le driver pour linux,
mais l’idéal est d’utiliser le raid fournit par linux qui fonctionne
tres bien, quand on le couple à lvm et lilo on obtient un raid
logiciel des plus convenable.
Dans le present article, seul le raid 1 sera traité (mirroring) dans
le cas d’une nouvelle installation (pas une migration).
Pour l’occasion, nous disposont de :
* 1 cd debian fraichement gravé.
* 1 carte mère SuperMicro P4SCI avec support sata.
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
* 1 Geeks ( Si vous n’en avez pas sous la main, vous devriez
pouvoir faire l’affaire ;o) ) voir 2 en redondance (@regit)...
1) Lancement de l’installation
Lancez l’install de votre debian arrivé au partitionnement passé au
paragraphe suivant.
2)Partitionement des disques dur
Partitionnez vos disques selon le schéma ci dessous (voire pj). Au
niveau des volumes logique, mettez autant de volume que de point de
montage (ex : sawp, /, /home, /var ....). Mettez la swap au debut du
volume global pour une mailleur vélocité. Une autre solution
(préconnisé par beacoup) serait de séparer la swap dans une partition
primaire au début du disque dur.
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
- Déchrootez vous et retournez à l’install Ctrl+D Alt+F1
4) Terminez votre installation
5)Premiére aproche
* Verification des partitions :
o fdisk
Vous devriez obtenir quelque chose de similaire :
debian2:/# fdisk /dev/sda
[...]
Command (m for help): p
Disk /dev/sda: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/sdb
[...]
Command (m for help): p
Disk /dev/sdb: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/md0
[...]
Command (m for help): p
Disk /dev/md0: 37.0 GB, 37013618688 bytes
2 heads, 4 sectors/track, 9036528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Device Boot Start End Blocks Id System
Command (m for help): q
o mdadm
debian2:/# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.01
Creation Time : Tue Dec 7 16:09:54 2004
Raid Level : raid1
Array Size : 36146112 (34.47 GiB 37.01 GB)
Device Size : 36146112 (34.47 GiB 37.01 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Dec 9 15:41:08 2004
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : dfa65e0e:88f0e391:381f77cc:6d14fce5
Events : 0.2932
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
o lvm
debian2:~# lvmdiskscan
/dev/sda [ 34,48 GB]
/dev/md0 [ 34,47 GB] LVM physical volume
/dev/sda1 [ 34,47 GB]
/dev/sdb [ 34,48 GB]
/dev/sdb1 [ 34,47 GB]
2 disks
2 partitions
0 LVM physical volume whole disks
1 LVM physical volume
debian2:~# pvscan
PV /dev/md0 VG system lvm2 [34,47 GB / 0 free]
Total: 1 [34,47 GB] / in use: 1 [34,47 GB] / in no VG: 0 [0 ]
debian2:~# vgs
VG #PV #LV #SN Attr VSize VFree
system 1 2 0 wz--n 34,47G 0
debian2:~# lvs
LV VG Attr LSize Origin Snap% Move Copy%
racine system -wi-ao 33,97G
swap system -wi-ao 512,00M
Notes :
[1] durant l’install seul nano est disponible
[2] reportez vous au man de lilo et lilo.conf pour plus de détail sur
cette option.
------------------------------------------------------------------------
Michel De Gouveia a écrit :Salut,
Je suis en train d'essayer de configurer le Raid 1 pour un serveur
IBM x346 series avec de disuqes de 73.4 Go qui servira uniquement
pour le Web Hosting.
J'ai essayé avec deux types d'installation :
- Debian Sarge version CD datant de Janvier.
Pas de détection des cartes réseaux Broadcom. On peut utiliser le
module tg3 en attendant de compiler un module plus adapté disponible
en source.
Mais le gros problème c'est qu'il ne détecte pas les deux disques durs.
Je dois essayer avec une version plus récente.
- Ubuntu Warty et Ubuntu Hoary CD Array 5
Détection des cartes réseaux et des deux disques sans aucun problème.
Mais je ne comprends pas bien comment configurer le Raid 1.
Les installateurs semblent proposer une configuration mais fonctionne
t-elle vraiment ?
J'ai configuer les partitions d'un des deux disques.
Le second je devrais normalement le configurer de la même facon mais
en signalant que c'est du raid ???
Après je devrais passer par la configuration du Raid.
Mais je n'ai aucun moyen de vérifier si le Raid est bien actif.
Ou dois-t-on comme j'ai pu le lire sur Internet tout configurer après
l'intallation ?
D'avance merci,
Michel
J'utilise sur tous mes serveurs un raid1+lvm, le tous est configuré
lors de l'install avec un cd sarge. Je mes si dessous un article en
cour de rédaction expliquant briévement la procédure ainsi qu'une
image en piece jointe décrivant le shema des partitions.
joel
#########################################################################
Le sata nouveau est arrivé il y a peu. La plupart des constructeurs
nous proposent sur toute carte mère équipé de sata (Serial ATA) un
system raid 0/1. Et c’est la que le bas (le prix bien sur) blesse. En
effet le raid n’est que semi materiel. Pour en profiter pleinnement il
faut installer un jolie driver propriétaire pour gérer tous cela au
niveau logiciel. Certain constructeur on publier le driver pour linux,
mais l’idéal est d’utiliser le raid fournit par linux qui fonctionne
tres bien, quand on le couple à lvm et lilo on obtient un raid
logiciel des plus convenable.
Dans le present article, seul le raid 1 sera traité (mirroring) dans
le cas d’une nouvelle installation (pas une migration).
Pour l’occasion, nous disposont de :
* 1 cd debian fraichement gravé.
* 1 carte mère SuperMicro P4SCI avec support sata.
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
* 1 Geeks ( Si vous n’en avez pas sous la main, vous devriez
pouvoir faire l’affaire ;o) ) voir 2 en redondance (@regit)...
1) Lancement de l’installation
Lancez l’install de votre debian arrivé au partitionnement passé au
paragraphe suivant.
2)Partitionement des disques dur
Partitionnez vos disques selon le schéma ci dessous (voire pj). Au
niveau des volumes logique, mettez autant de volume que de point de
montage (ex : sawp, /, /home, /var ....). Mettez la swap au debut du
volume global pour une mailleur vélocité. Une autre solution
(préconnisé par beacoup) serait de séparer la swap dans une partition
primaire au début du disque dur.
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
- Déchrootez vous et retournez à l’install Ctrl+D Alt+F1
4) Terminez votre installation
5)Premiére aproche
* Verification des partitions :
o fdisk
Vous devriez obtenir quelque chose de similaire :
debian2:/# fdisk /dev/sda
[...]
Command (m for help): p
Disk /dev/sda: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/sdb
[...]
Command (m for help): p
Disk /dev/sdb: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/md0
[...]
Command (m for help): p
Disk /dev/md0: 37.0 GB, 37013618688 bytes
2 heads, 4 sectors/track, 9036528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Device Boot Start End Blocks Id System
Command (m for help): q
o mdadm
debian2:/# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.01
Creation Time : Tue Dec 7 16:09:54 2004
Raid Level : raid1
Array Size : 36146112 (34.47 GiB 37.01 GB)
Device Size : 36146112 (34.47 GiB 37.01 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Dec 9 15:41:08 2004
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : dfa65e0e:88f0e391:381f77cc:6d14fce5
Events : 0.2932
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
o lvm
debian2:~# lvmdiskscan
/dev/sda [ 34,48 GB]
/dev/md0 [ 34,47 GB] LVM physical volume
/dev/sda1 [ 34,47 GB]
/dev/sdb [ 34,48 GB]
/dev/sdb1 [ 34,47 GB]
2 disks
2 partitions
0 LVM physical volume whole disks
1 LVM physical volume
debian2:~# pvscan
PV /dev/md0 VG system lvm2 [34,47 GB / 0 free]
Total: 1 [34,47 GB] / in use: 1 [34,47 GB] / in no VG: 0 [0 ]
debian2:~# vgs
VG #PV #LV #SN Attr VSize VFree
system 1 2 0 wz--n 34,47G 0
debian2:~# lvs
LV VG Attr LSize Origin Snap% Move Copy%
racine system -wi-ao 33,97G
swap system -wi-ao 512,00M
Notes :
[1] durant l’install seul nano est disponible
[2] reportez vous au man de lilo et lilo.conf pour plus de détail sur
cette option.
------------------------------------------------------------------------
Salut,
J'essaie toujours de configurer le Raid 1 sur le serveur IBM x346
series. Pour l'instant, je n'utilise que le CD d'Ubuntu Hoary Array 6
64 bit (Vu que la release arrive bientôt) car les différentes
versions de Debian Sarge (i386 et IA64) n'ont pas le driver adaptec
aic79XXX. Mais vu que l'installeur est le même.
J'ai essayé de suivre la méthode de Joel.
Configuration des deux disques en Raid primary bootable.
Creation du Raid 1 avec les deux disques.
Creation d'un groupe Volume Logique system
Creation des differents Volume Logiques correspondant /, /usr, /var
etc... Installation de Lilo sans de partition active avec
effectivement une erreur Puis les étapes
Alt F2
#chroot /target
#nano /etc/lilo.conf
ajout de la ligne raid-extra-boot=mbr-only
#lilo
Là, il semble ne pas réussir à installer dans chaque mbr des disques.
(Je n'ai plus le message sous les yeux car pour l'instant, nous avons
besoin de faire des tests avec Apache sur ce serveur avant
l'installation définitive avec le Raid 1.)
Au reboot, après avoir fini l'installation, pas de lilo.
Manque-t-il une étape ?
Salut,
J'essaie toujours de configurer le Raid 1 sur le serveur IBM x346
series. Pour l'instant, je n'utilise que le CD d'Ubuntu Hoary Array 6
64 bit (Vu que la release arrive bientôt) car les différentes
versions de Debian Sarge (i386 et IA64) n'ont pas le driver adaptec
aic79XXX. Mais vu que l'installeur est le même.
J'ai essayé de suivre la méthode de Joel.
Configuration des deux disques en Raid primary bootable.
Creation du Raid 1 avec les deux disques.
Creation d'un groupe Volume Logique system
Creation des differents Volume Logiques correspondant /, /usr, /var
etc... Installation de Lilo sans de partition active avec
effectivement une erreur Puis les étapes
Alt F2
#chroot /target
#nano /etc/lilo.conf
ajout de la ligne raid-extra-boot=mbr-only
#lilo
Là, il semble ne pas réussir à installer dans chaque mbr des disques.
(Je n'ai plus le message sous les yeux car pour l'instant, nous avons
besoin de faire des tests avec Apache sur ce serveur avant
l'installation définitive avec le Raid 1.)
Au reboot, après avoir fini l'installation, pas de lilo.
Manque-t-il une étape ?
Salut,
J'essaie toujours de configurer le Raid 1 sur le serveur IBM x346
series. Pour l'instant, je n'utilise que le CD d'Ubuntu Hoary Array 6
64 bit (Vu que la release arrive bientôt) car les différentes
versions de Debian Sarge (i386 et IA64) n'ont pas le driver adaptec
aic79XXX. Mais vu que l'installeur est le même.
J'ai essayé de suivre la méthode de Joel.
Configuration des deux disques en Raid primary bootable.
Creation du Raid 1 avec les deux disques.
Creation d'un groupe Volume Logique system
Creation des differents Volume Logiques correspondant /, /usr, /var
etc... Installation de Lilo sans de partition active avec
effectivement une erreur Puis les étapes
Alt F2
#chroot /target
#nano /etc/lilo.conf
ajout de la ligne raid-extra-boot=mbr-only
#lilo
Là, il semble ne pas réussir à installer dans chaque mbr des disques.
(Je n'ai plus le message sous les yeux car pour l'instant, nous avons
besoin de faire des tests avec Apache sur ce serveur avant
l'installation définitive avec le Raid 1.)
Au reboot, après avoir fini l'installation, pas de lilo.
Manque-t-il une étape ?
Le Mardi 8 Mars 2005 12:22, afmdg a écrit :
> Salut,
>
> J'essaie toujours de configurer le Raid 1 sur le serveur IBM x346
> series. Pour l'instant, je n'utilise que le CD d'Ubuntu Hoary Array
6
> 64 bit (Vu que la release arrive bientôt) car les différentes
> versions de Debian Sarge (i386 et IA64) n'ont pas le driver adaptec
> aic79XXX. Mais vu que l'installeur est le même.
> J'ai essayé de suivre la méthode de Joel.
> Configuration des deux disques en Raid primary bootable.
> Creation du Raid 1 avec les deux disques.
> Creation d'un groupe Volume Logique system
> Creation des differents Volume Logiques correspondant /, /usr, /var
> etc... Installation de Lilo sans de partition active avec
> effectivement une erreur Puis les étapes
> Alt F2
> #chroot /target
> #nano /etc/lilo.conf
> ajout de la ligne raid-extra-boot=mbr-only
Moi j'ai raid-extra-boot=mbr tout court.
> #lilo
> Là, il semble ne pas réussir à installer dans chaque mbr des
disques.
> (Je n'ai plus le message sous les yeux car pour l'instant, nous
avons
> besoin de faire des tests avec Apache sur ce serveur avant
> l'installation définitive avec le Raid 1.)
> Au reboot, après avoir fini l'installation, pas de lilo.
>
> Manque-t-il une étape ?
Je suis pas sûr que l'on puisse avoir /, en tout cas /boot sur du lvm.
Enfin, peut-être que lilo y retrouve ses petits.
Dans ma config, j'ai / sur du raid 1 sans LVM, le reste sur du raid 5
avec du LVM.
Le Mardi 8 Mars 2005 12:22, afmdg a écrit :
> Salut,
>
> J'essaie toujours de configurer le Raid 1 sur le serveur IBM x346
> series. Pour l'instant, je n'utilise que le CD d'Ubuntu Hoary Array
6
> 64 bit (Vu que la release arrive bientôt) car les différentes
> versions de Debian Sarge (i386 et IA64) n'ont pas le driver adaptec
> aic79XXX. Mais vu que l'installeur est le même.
> J'ai essayé de suivre la méthode de Joel.
> Configuration des deux disques en Raid primary bootable.
> Creation du Raid 1 avec les deux disques.
> Creation d'un groupe Volume Logique system
> Creation des differents Volume Logiques correspondant /, /usr, /var
> etc... Installation de Lilo sans de partition active avec
> effectivement une erreur Puis les étapes
> Alt F2
> #chroot /target
> #nano /etc/lilo.conf
> ajout de la ligne raid-extra-boot=mbr-only
Moi j'ai raid-extra-boot=mbr tout court.
> #lilo
> Là, il semble ne pas réussir à installer dans chaque mbr des
disques.
> (Je n'ai plus le message sous les yeux car pour l'instant, nous
avons
> besoin de faire des tests avec Apache sur ce serveur avant
> l'installation définitive avec le Raid 1.)
> Au reboot, après avoir fini l'installation, pas de lilo.
>
> Manque-t-il une étape ?
Je suis pas sûr que l'on puisse avoir /, en tout cas /boot sur du lvm.
Enfin, peut-être que lilo y retrouve ses petits.
Dans ma config, j'ai / sur du raid 1 sans LVM, le reste sur du raid 5
avec du LVM.
Le Mardi 8 Mars 2005 12:22, afmdg a écrit :
> Salut,
>
> J'essaie toujours de configurer le Raid 1 sur le serveur IBM x346
> series. Pour l'instant, je n'utilise que le CD d'Ubuntu Hoary Array
6
> 64 bit (Vu que la release arrive bientôt) car les différentes
> versions de Debian Sarge (i386 et IA64) n'ont pas le driver adaptec
> aic79XXX. Mais vu que l'installeur est le même.
> J'ai essayé de suivre la méthode de Joel.
> Configuration des deux disques en Raid primary bootable.
> Creation du Raid 1 avec les deux disques.
> Creation d'un groupe Volume Logique system
> Creation des differents Volume Logiques correspondant /, /usr, /var
> etc... Installation de Lilo sans de partition active avec
> effectivement une erreur Puis les étapes
> Alt F2
> #chroot /target
> #nano /etc/lilo.conf
> ajout de la ligne raid-extra-boot=mbr-only
Moi j'ai raid-extra-boot=mbr tout court.
> #lilo
> Là, il semble ne pas réussir à installer dans chaque mbr des
disques.
> (Je n'ai plus le message sous les yeux car pour l'instant, nous
avons
> besoin de faire des tests avec Apache sur ce serveur avant
> l'installation définitive avec le Raid 1.)
> Au reboot, après avoir fini l'installation, pas de lilo.
>
> Manque-t-il une étape ?
Je suis pas sûr que l'on puisse avoir /, en tout cas /boot sur du lvm.
Enfin, peut-être que lilo y retrouve ses petits.
Dans ma config, j'ai / sur du raid 1 sans LVM, le reste sur du raid 5
avec du LVM.
Salut,
J'essaie toujours de configurer le Raid 1 sur le serveur IBM x346 series.
Pour l'instant, je n'utilise que le CD d'Ubuntu Hoary Array 6 64 bit (Vu
que la release arrive bientôt) car les différentes versions de Debian
Sarge (i386 et IA64) n'ont pas le driver adaptec aic79XXX. Mais vu que
l'installeur est le même.
J'ai essayé de suivre la méthode de Joel.
Configuration des deux disques en Raid primary bootable.
Creation du Raid 1 avec les deux disques.
Creation d'un groupe Volume Logique system
Creation des differents Volume Logiques correspondant /, /usr, /var etc...
Installation de Lilo sans de partition active avec effectivement une erreur
Puis les étapes
Alt F2
#chroot /target
#nano /etc/lilo.conf
ajout de la ligne raid-extra-boot=mbr-only
#lilo
Là, il semble ne pas réussir à installer dans chaque mbr des disques.
(Je n'ai plus le message sous les yeux car pour l'instant, nous avons
besoin de faire des tests avec Apache sur ce serveur avant
l'installation définitive avec le Raid 1.)
Au reboot, après avoir fini l'installation, pas de lilo.
Manque-t-il une étape ?
Michel
Joel wrote:Michel De Gouveia a écrit :Salut,
Je suis en train d'essayer de configurer le Raid 1 pour un serveur
IBM x346 series avec de disuqes de 73.4 Go qui servira uniquement
pour le Web Hosting.
J'ai essayé avec deux types d'installation :
- Debian Sarge version CD datant de Janvier.
Pas de détection des cartes réseaux Broadcom. On peut utiliser le
module tg3 en attendant de compiler un module plus adapté disponible
en source.
Mais le gros problème c'est qu'il ne détecte pas les deux disques durs.
Je dois essayer avec une version plus récente.
- Ubuntu Warty et Ubuntu Hoary CD Array 5
Détection des cartes réseaux et des deux disques sans aucun problème.
Mais je ne comprends pas bien comment configurer le Raid 1.
Les installateurs semblent proposer une configuration mais fonctionne
t-elle vraiment ?
J'ai configuer les partitions d'un des deux disques.
Le second je devrais normalement le configurer de la même facon mais
en signalant que c'est du raid ???
Après je devrais passer par la configuration du Raid.
Mais je n'ai aucun moyen de vérifier si le Raid est bien actif.
Ou dois-t-on comme j'ai pu le lire sur Internet tout configurer après
l'intallation ?
D'avance merci,
Michel
J'utilise sur tous mes serveurs un raid1+lvm, le tous est configuré
lors de l'install avec un cd sarge. Je mes si dessous un article en
cour de rédaction expliquant briévement la procédure ainsi qu'une
image en piece jointe décrivant le shema des partitions.
joel
#########################################################################
Le sata nouveau est arrivé il y a peu. La plupart des constructeurs
nous proposent sur toute carte mère équipé de sata (Serial ATA) un
system raid 0/1. Et c’est la que le bas (le prix bien sur) blesse. En
effet le raid n’est que semi materiel. Pour en profiter pleinnement il
faut installer un jolie driver propriétaire pour gérer tous cela au
niveau logiciel. Certain constructeur on publier le driver pour linux,
mais l’idéal est d’utiliser le raid fournit par linux qui fonctionne
tres bien, quand on le couple à lvm et lilo on obtient un raid
logiciel des plus convenable.
Dans le present article, seul le raid 1 sera traité (mirroring) dans
le cas d’une nouvelle installation (pas une migration).
Pour l’occasion, nous disposont de :
* 1 cd debian fraichement gravé.
* 1 carte mère SuperMicro P4SCI avec support sata.
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
* 1 Geeks ( Si vous n’en avez pas sous la main, vous devriez
pouvoir faire l’affaire ;o) ) voir 2 en redondance (@regit)...
1) Lancement de l’installation
Lancez l’install de votre debian arrivé au partitionnement passé au
paragraphe suivant.
2)Partitionement des disques dur
Partitionnez vos disques selon le schéma ci dessous (voire pj). Au
niveau des volumes logique, mettez autant de volume que de point de
montage (ex : sawp, /, /home, /var ....). Mettez la swap au debut du
volume global pour une mailleur vélocité. Une autre solution
(préconnisé par beacoup) serait de séparer la swap dans une partition
primaire au début du disque dur.
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
- Déchrootez vous et retournez à l’install Ctrl+D Alt+F1
4) Terminez votre installation
5)Premiére aproche
* Verification des partitions :
o fdisk
Vous devriez obtenir quelque chose de similaire :
debian2:/# fdisk /dev/sda
[...]
Command (m for help): p
Disk /dev/sda: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/sdb
[...]
Command (m for help): p
Disk /dev/sdb: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/md0
[...]
Command (m for help): p
Disk /dev/md0: 37.0 GB, 37013618688 bytes
2 heads, 4 sectors/track, 9036528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Device Boot Start End Blocks Id System
Command (m for help): q
o mdadm
debian2:/# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.01
Creation Time : Tue Dec 7 16:09:54 2004
Raid Level : raid1
Array Size : 36146112 (34.47 GiB 37.01 GB)
Device Size : 36146112 (34.47 GiB 37.01 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Dec 9 15:41:08 2004
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : dfa65e0e:88f0e391:381f77cc:6d14fce5
Events : 0.2932
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
o lvm
debian2:~# lvmdiskscan
/dev/sda [ 34,48 GB]
/dev/md0 [ 34,47 GB] LVM physical volume
/dev/sda1 [ 34,47 GB]
/dev/sdb [ 34,48 GB]
/dev/sdb1 [ 34,47 GB]
2 disks
2 partitions
0 LVM physical volume whole disks
1 LVM physical volume
debian2:~# pvscan
PV /dev/md0 VG system lvm2 [34,47 GB / 0 free]
Total: 1 [34,47 GB] / in use: 1 [34,47 GB] / in no VG: 0 [0 ]
debian2:~# vgs
VG #PV #LV #SN Attr VSize VFree
system 1 2 0 wz--n 34,47G 0
debian2:~# lvs
LV VG Attr LSize Origin Snap% Move Copy%
racine system -wi-ao 33,97G
swap system -wi-ao 512,00M
Notes :
[1] durant l’install seul nano est disponible
[2] reportez vous au man de lilo et lilo.conf pour plus de détail sur
cette option.
------------------------------------------------------------------------
LILO version 22.6.1, Copyright (C) 1992-1998 Werner Almesberger
Development beyond version 21 Copyright (C) 1999-2004 John Coffman
Released 17-Nov-2004, and compiled at 20:30:43 on Dec 9 2004
Debian GNU/Linux
raid-extra-boot=<option>
This option only has meaning for RAID1 installations. The <option> may be specified as none, auto, mbr,
mbr-only, or a comma-separated list of devices; e.g., "/dev/hda,/dev/hdc6". Starting with LILO version
22.0, the boot record is normally written to the first sector of the RAID1 partition. On PARALLEL raid
sets, no other boot records are needed. The default action is auto, meaning, automatically generate auxi-
lary boot records as needed on SKEWED raid sets. none means suppress generation of all auxiliary boot
records. mbr-only suppresses generation of a boot record on the raid device, and forces compatibility with
versions of LILO earlier than version 22.0 by writing boot records to all Master Boot Records (MBRs) of all
disks which have partitions in the raid set. mbr is like mbr-only except the boot record on the RAID pari-
tion is not suppressed. Use of an explicit list of devices, forces writing of auxiliary boot records only
on those devices enumerated, in addition to the boot record on the RAID1 device. Since the version 22 RAID1
codes will never automatically write a boot record on the MBR of device 0x80, if such a boot record is
desired, this is one way to have it written. Use of mbr is the other way to force writing to the MBR of
device 0x80.
Salut,
J'essaie toujours de configurer le Raid 1 sur le serveur IBM x346 series.
Pour l'instant, je n'utilise que le CD d'Ubuntu Hoary Array 6 64 bit (Vu
que la release arrive bientôt) car les différentes versions de Debian
Sarge (i386 et IA64) n'ont pas le driver adaptec aic79XXX. Mais vu que
l'installeur est le même.
J'ai essayé de suivre la méthode de Joel.
Configuration des deux disques en Raid primary bootable.
Creation du Raid 1 avec les deux disques.
Creation d'un groupe Volume Logique system
Creation des differents Volume Logiques correspondant /, /usr, /var etc...
Installation de Lilo sans de partition active avec effectivement une erreur
Puis les étapes
Alt F2
#chroot /target
#nano /etc/lilo.conf
ajout de la ligne raid-extra-boot=mbr-only
#lilo
Là, il semble ne pas réussir à installer dans chaque mbr des disques.
(Je n'ai plus le message sous les yeux car pour l'instant, nous avons
besoin de faire des tests avec Apache sur ce serveur avant
l'installation définitive avec le Raid 1.)
Au reboot, après avoir fini l'installation, pas de lilo.
Manque-t-il une étape ?
Michel
Joel wrote:
Michel De Gouveia a écrit :
Salut,
Je suis en train d'essayer de configurer le Raid 1 pour un serveur
IBM x346 series avec de disuqes de 73.4 Go qui servira uniquement
pour le Web Hosting.
J'ai essayé avec deux types d'installation :
- Debian Sarge version CD datant de Janvier.
Pas de détection des cartes réseaux Broadcom. On peut utiliser le
module tg3 en attendant de compiler un module plus adapté disponible
en source.
Mais le gros problème c'est qu'il ne détecte pas les deux disques durs.
Je dois essayer avec une version plus récente.
- Ubuntu Warty et Ubuntu Hoary CD Array 5
Détection des cartes réseaux et des deux disques sans aucun problème.
Mais je ne comprends pas bien comment configurer le Raid 1.
Les installateurs semblent proposer une configuration mais fonctionne
t-elle vraiment ?
J'ai configuer les partitions d'un des deux disques.
Le second je devrais normalement le configurer de la même facon mais
en signalant que c'est du raid ???
Après je devrais passer par la configuration du Raid.
Mais je n'ai aucun moyen de vérifier si le Raid est bien actif.
Ou dois-t-on comme j'ai pu le lire sur Internet tout configurer après
l'intallation ?
D'avance merci,
Michel
J'utilise sur tous mes serveurs un raid1+lvm, le tous est configuré
lors de l'install avec un cd sarge. Je mes si dessous un article en
cour de rédaction expliquant briévement la procédure ainsi qu'une
image en piece jointe décrivant le shema des partitions.
joel
#########################################################################
Le sata nouveau est arrivé il y a peu. La plupart des constructeurs
nous proposent sur toute carte mère équipé de sata (Serial ATA) un
system raid 0/1. Et c’est la que le bas (le prix bien sur) blesse. En
effet le raid n’est que semi materiel. Pour en profiter pleinnement il
faut installer un jolie driver propriétaire pour gérer tous cela au
niveau logiciel. Certain constructeur on publier le driver pour linux,
mais l’idéal est d’utiliser le raid fournit par linux qui fonctionne
tres bien, quand on le couple à lvm et lilo on obtient un raid
logiciel des plus convenable.
Dans le present article, seul le raid 1 sera traité (mirroring) dans
le cas d’une nouvelle installation (pas une migration).
Pour l’occasion, nous disposont de :
* 1 cd debian fraichement gravé.
* 1 carte mère SuperMicro P4SCI avec support sata.
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
* 1 Geeks ( Si vous n’en avez pas sous la main, vous devriez
pouvoir faire l’affaire ;o) ) voir 2 en redondance (@regit)...
1) Lancement de l’installation
Lancez l’install de votre debian arrivé au partitionnement passé au
paragraphe suivant.
2)Partitionement des disques dur
Partitionnez vos disques selon le schéma ci dessous (voire pj). Au
niveau des volumes logique, mettez autant de volume que de point de
montage (ex : sawp, /, /home, /var ....). Mettez la swap au debut du
volume global pour une mailleur vélocité. Une autre solution
(préconnisé par beacoup) serait de séparer la swap dans une partition
primaire au début du disque dur.
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
- Déchrootez vous et retournez à l’install Ctrl+D Alt+F1
4) Terminez votre installation
5)Premiére aproche
* Verification des partitions :
o fdisk
Vous devriez obtenir quelque chose de similaire :
debian2:/# fdisk /dev/sda
[...]
Command (m for help): p
Disk /dev/sda: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/sdb
[...]
Command (m for help): p
Disk /dev/sdb: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/md0
[...]
Command (m for help): p
Disk /dev/md0: 37.0 GB, 37013618688 bytes
2 heads, 4 sectors/track, 9036528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Device Boot Start End Blocks Id System
Command (m for help): q
o mdadm
debian2:/# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.01
Creation Time : Tue Dec 7 16:09:54 2004
Raid Level : raid1
Array Size : 36146112 (34.47 GiB 37.01 GB)
Device Size : 36146112 (34.47 GiB 37.01 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Dec 9 15:41:08 2004
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : dfa65e0e:88f0e391:381f77cc:6d14fce5
Events : 0.2932
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
o lvm
debian2:~# lvmdiskscan
/dev/sda [ 34,48 GB]
/dev/md0 [ 34,47 GB] LVM physical volume
/dev/sda1 [ 34,47 GB]
/dev/sdb [ 34,48 GB]
/dev/sdb1 [ 34,47 GB]
2 disks
2 partitions
0 LVM physical volume whole disks
1 LVM physical volume
debian2:~# pvscan
PV /dev/md0 VG system lvm2 [34,47 GB / 0 free]
Total: 1 [34,47 GB] / in use: 1 [34,47 GB] / in no VG: 0 [0 ]
debian2:~# vgs
VG #PV #LV #SN Attr VSize VFree
system 1 2 0 wz--n 34,47G 0
debian2:~# lvs
LV VG Attr LSize Origin Snap% Move Copy%
racine system -wi-ao 33,97G
swap system -wi-ao 512,00M
Notes :
[1] durant l’install seul nano est disponible
[2] reportez vous au man de lilo et lilo.conf pour plus de détail sur
cette option.
------------------------------------------------------------------------
LILO version 22.6.1, Copyright (C) 1992-1998 Werner Almesberger
Development beyond version 21 Copyright (C) 1999-2004 John Coffman
Released 17-Nov-2004, and compiled at 20:30:43 on Dec 9 2004
Debian GNU/Linux
raid-extra-boot=<option>
This option only has meaning for RAID1 installations. The <option> may be specified as none, auto, mbr,
mbr-only, or a comma-separated list of devices; e.g., "/dev/hda,/dev/hdc6". Starting with LILO version
22.0, the boot record is normally written to the first sector of the RAID1 partition. On PARALLEL raid
sets, no other boot records are needed. The default action is auto, meaning, automatically generate auxi-
lary boot records as needed on SKEWED raid sets. none means suppress generation of all auxiliary boot
records. mbr-only suppresses generation of a boot record on the raid device, and forces compatibility with
versions of LILO earlier than version 22.0 by writing boot records to all Master Boot Records (MBRs) of all
disks which have partitions in the raid set. mbr is like mbr-only except the boot record on the RAID pari-
tion is not suppressed. Use of an explicit list of devices, forces writing of auxiliary boot records only
on those devices enumerated, in addition to the boot record on the RAID1 device. Since the version 22 RAID1
codes will never automatically write a boot record on the MBR of device 0x80, if such a boot record is
desired, this is one way to have it written. Use of mbr is the other way to force writing to the MBR of
device 0x80.
Salut,
J'essaie toujours de configurer le Raid 1 sur le serveur IBM x346 series.
Pour l'instant, je n'utilise que le CD d'Ubuntu Hoary Array 6 64 bit (Vu
que la release arrive bientôt) car les différentes versions de Debian
Sarge (i386 et IA64) n'ont pas le driver adaptec aic79XXX. Mais vu que
l'installeur est le même.
J'ai essayé de suivre la méthode de Joel.
Configuration des deux disques en Raid primary bootable.
Creation du Raid 1 avec les deux disques.
Creation d'un groupe Volume Logique system
Creation des differents Volume Logiques correspondant /, /usr, /var etc...
Installation de Lilo sans de partition active avec effectivement une erreur
Puis les étapes
Alt F2
#chroot /target
#nano /etc/lilo.conf
ajout de la ligne raid-extra-boot=mbr-only
#lilo
Là, il semble ne pas réussir à installer dans chaque mbr des disques.
(Je n'ai plus le message sous les yeux car pour l'instant, nous avons
besoin de faire des tests avec Apache sur ce serveur avant
l'installation définitive avec le Raid 1.)
Au reboot, après avoir fini l'installation, pas de lilo.
Manque-t-il une étape ?
Michel
Joel wrote:Michel De Gouveia a écrit :Salut,
Je suis en train d'essayer de configurer le Raid 1 pour un serveur
IBM x346 series avec de disuqes de 73.4 Go qui servira uniquement
pour le Web Hosting.
J'ai essayé avec deux types d'installation :
- Debian Sarge version CD datant de Janvier.
Pas de détection des cartes réseaux Broadcom. On peut utiliser le
module tg3 en attendant de compiler un module plus adapté disponible
en source.
Mais le gros problème c'est qu'il ne détecte pas les deux disques durs.
Je dois essayer avec une version plus récente.
- Ubuntu Warty et Ubuntu Hoary CD Array 5
Détection des cartes réseaux et des deux disques sans aucun problème.
Mais je ne comprends pas bien comment configurer le Raid 1.
Les installateurs semblent proposer une configuration mais fonctionne
t-elle vraiment ?
J'ai configuer les partitions d'un des deux disques.
Le second je devrais normalement le configurer de la même facon mais
en signalant que c'est du raid ???
Après je devrais passer par la configuration du Raid.
Mais je n'ai aucun moyen de vérifier si le Raid est bien actif.
Ou dois-t-on comme j'ai pu le lire sur Internet tout configurer après
l'intallation ?
D'avance merci,
Michel
J'utilise sur tous mes serveurs un raid1+lvm, le tous est configuré
lors de l'install avec un cd sarge. Je mes si dessous un article en
cour de rédaction expliquant briévement la procédure ainsi qu'une
image en piece jointe décrivant le shema des partitions.
joel
#########################################################################
Le sata nouveau est arrivé il y a peu. La plupart des constructeurs
nous proposent sur toute carte mère équipé de sata (Serial ATA) un
system raid 0/1. Et c’est la que le bas (le prix bien sur) blesse. En
effet le raid n’est que semi materiel. Pour en profiter pleinnement il
faut installer un jolie driver propriétaire pour gérer tous cela au
niveau logiciel. Certain constructeur on publier le driver pour linux,
mais l’idéal est d’utiliser le raid fournit par linux qui fonctionne
tres bien, quand on le couple à lvm et lilo on obtient un raid
logiciel des plus convenable.
Dans le present article, seul le raid 1 sera traité (mirroring) dans
le cas d’une nouvelle installation (pas une migration).
Pour l’occasion, nous disposont de :
* 1 cd debian fraichement gravé.
* 1 carte mère SuperMicro P4SCI avec support sata.
* 2 disques dur (strictement identique) sata Western Digital
Raptor 10000 rpm (ca marche aussi en ide, pensez a mettre les disque
sur des controleurs séparés [hda, hdc] )
* 1 Geeks ( Si vous n’en avez pas sous la main, vous devriez
pouvoir faire l’affaire ;o) ) voir 2 en redondance (@regit)...
1) Lancement de l’installation
Lancez l’install de votre debian arrivé au partitionnement passé au
paragraphe suivant.
2)Partitionement des disques dur
Partitionnez vos disques selon le schéma ci dessous (voire pj). Au
niveau des volumes logique, mettez autant de volume que de point de
montage (ex : sawp, /, /home, /var ....). Mettez la swap au debut du
volume global pour une mailleur vélocité. Une autre solution
(préconnisé par beacoup) serait de séparer la swap dans une partition
primaire au début du disque dur.
3) Configuration du Loader
Nous allons utiliser lilo (d’ailleur l’installeur supprime le menu
grub), en effet lilo peux s’installer directement dans le mbr et gére
le multidisque (md). C’est un point important car la gestion de notre
raide sera chargé par le kernel et donc impossible de mettre lilo sur
/dev/md0. De plus si votre disque HHD0 (sda ici) tombez en panne, il
faut pouvoir booter sur sdb et donc lilo doit etre installé dans le
mbr des 2 disques dur.
Laissez donc lilo s’intaller en pressisant que la partition ne doit
pas être activé. L’installeur va vous reourner une erreur. Pas de
panique c’est juste un petit bug.
- Ouvrez une ligne de commande (Alt+F2)
- Chrootez vous a la racine de votre future system
# chroot /target
- Editer le fichier lilo.conf [1]
# nano /etc/lilo.conf
- Rechercher au debut du fichier la ligne :
boot=/dev/md0
- Puis ajouter en dessous [2] :
raid-extra-boot=mbr-only
- Enregister et fermer le fichier
- Installer lilo dans "les" mbr
# lilo
- Déchrootez vous et retournez à l’install Ctrl+D Alt+F1
4) Terminez votre installation
5)Premiére aproche
* Verification des partitions :
o fdisk
Vous devriez obtenir quelque chose de similaire :
debian2:/# fdisk /dev/sda
[...]
Command (m for help): p
Disk /dev/sda: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/sdb
[...]
Command (m for help): p
Disk /dev/sdb: 37.0 GB, 37019566080 bytes
255 heads, 63 sectors/track, 4500 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 4500 36146218+ fd Linux raid
autodetect
Command (m for help): q
debian2:/# fdisk /dev/md0
[...]
Command (m for help): p
Disk /dev/md0: 37.0 GB, 37013618688 bytes
2 heads, 4 sectors/track, 9036528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Device Boot Start End Blocks Id System
Command (m for help): q
o mdadm
debian2:/# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.01
Creation Time : Tue Dec 7 16:09:54 2004
Raid Level : raid1
Array Size : 36146112 (34.47 GiB 37.01 GB)
Device Size : 36146112 (34.47 GiB 37.01 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Dec 9 15:41:08 2004
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : dfa65e0e:88f0e391:381f77cc:6d14fce5
Events : 0.2932
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
o lvm
debian2:~# lvmdiskscan
/dev/sda [ 34,48 GB]
/dev/md0 [ 34,47 GB] LVM physical volume
/dev/sda1 [ 34,47 GB]
/dev/sdb [ 34,48 GB]
/dev/sdb1 [ 34,47 GB]
2 disks
2 partitions
0 LVM physical volume whole disks
1 LVM physical volume
debian2:~# pvscan
PV /dev/md0 VG system lvm2 [34,47 GB / 0 free]
Total: 1 [34,47 GB] / in use: 1 [34,47 GB] / in no VG: 0 [0 ]
debian2:~# vgs
VG #PV #LV #SN Attr VSize VFree
system 1 2 0 wz--n 34,47G 0
debian2:~# lvs
LV VG Attr LSize Origin Snap% Move Copy%
racine system -wi-ao 33,97G
swap system -wi-ao 512,00M
Notes :
[1] durant l’install seul nano est disponible
[2] reportez vous au man de lilo et lilo.conf pour plus de détail sur
cette option.
------------------------------------------------------------------------
LILO version 22.6.1, Copyright (C) 1992-1998 Werner Almesberger
Development beyond version 21 Copyright (C) 1999-2004 John Coffman
Released 17-Nov-2004, and compiled at 20:30:43 on Dec 9 2004
Debian GNU/Linux
raid-extra-boot=<option>
This option only has meaning for RAID1 installations. The <option> may be specified as none, auto, mbr,
mbr-only, or a comma-separated list of devices; e.g., "/dev/hda,/dev/hdc6". Starting with LILO version
22.0, the boot record is normally written to the first sector of the RAID1 partition. On PARALLEL raid
sets, no other boot records are needed. The default action is auto, meaning, automatically generate auxi-
lary boot records as needed on SKEWED raid sets. none means suppress generation of all auxiliary boot
records. mbr-only suppresses generation of a boot record on the raid device, and forces compatibility with
versions of LILO earlier than version 22.0 by writing boot records to all Master Boot Records (MBRs) of all
disks which have partitions in the raid set. mbr is like mbr-only except the boot record on the RAID pari-
tion is not suppressed. Use of an explicit list of devices, forces writing of auxiliary boot records only
on those devices enumerated, in addition to the boot record on the RAID1 device. Since the version 22 RAID1
codes will never automatically write a boot record on the MBR of device 0x80, if such a boot record is
desired, this is one way to have it written. Use of mbr is the other way to force writing to the MBR of
device 0x80.