Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

problème configuration RAID

4 réponses
Avatar
Thierry Despeyroux
Bonjour,

Dans une configuration RAID1 op=C3=A9rationnelle, un disque a commenc=C3=A9=
=C3=A0
montrer des signes de faiblesse. J'ai donc voulu remplac=C3=A9 les 2 disques
par des SSD. Les anciens disques =C3=A9taient des 250G, et les SSD des
240G... Donc aor=C3=A8s moultes manip, je me retrouve avec une configuration
qui tourne. Sauf que, =C3=A0 chaque reboot =C3=A7a foire.

*Ce que dit cat /proc/mdstat
Personalities : [raid1]=20
md3 : active raid1 sdb6[1] sda6[0]
2921728 blocks super 1.2 [2/2] [UU]
=20
md4 : active raid1 sdb7[1] sda7[0]
174872576 blocks super 1.2 [2/2] [UU]
bitmap: 1/2 pages [4KB], 65536KB chunk

md0 : active raid1 sda2[3] sdb2[2]
30729088 blocks super 1.2 [2/2] [UU]
=20
md2 : active raid1 sda5[2] sdb5[3]
12867776 blocks super 1.2 [2/2] [UU]
=20
md1 : active raid1 sda3[2] sdb3[3]
12867776 blocks super 1.2 [2/2] [UU]
=20
unused devices: <none>

*Ce que dit mdadm --detail --scan
ARRAY /dev/md/1 metadata=3D1.2 name=3Duther:1 UUID=3D542ab515:6ff448ed:4f04=
778d:deb50dec=20
ARRAY /dev/md/2 metadata=3D1.2 name=3Duther:2
UUID=3D7cf7c432:34ad7dca:f88c2712:bb89bace=20
ARRAY /dev/md/0 metadata=3D1.2 name=3Duther:0
UUID=3D0e4a3bdc:589c0654:7205bf91:b165f927=20
ARRAY /dev/md4 metadata=3D1.2 name=3Duther:4
UUID=3D1fab1da2:d81656eb:c307197b:1603bc2c=20
ARRAY /dev/md3 metadata=3D1.2 name=3Duther:3
UUID=3D30b1085b:e798de40:3bae037c:5033fd30

et c'est ce que j'ai report=C3=A9 dans /etc/mdadm/mdadm.conf
(pourquoi cette diff=C3=A9rence entre /dev/md/1 et /dev/md3 ??)

au reboot j'ai un message pour me dire qu'un process est en court sur dev-m=
d4.device et meme chose pour dev-md3.device

puis je me retrouve en mode mono-utilisateur avec des=20
/dev/md127 et /dev/md126 qui ne sont pas mont=C3=A9s bien sur.
J'arr=C3=AAte ces 2 grappes, je cr=C3=A9e md3 et md4
et =C3=A7a roule...

Qu'ai-je loup=C3=A9 ??

Merci pour vitre aide !

Thierry

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers debian-user-french-REQUEST@lists.debian.org
En cas de soucis, contactez EN ANGLAIS listmaster@lists.debian.org
Archive: https://lists.debian.org/20150729170918.5590f5b9@archimede5.inria.fr

4 réponses

Avatar
Thierry Despeyroux
A toutes fins utiles ce que j'ai trouvé dans kern.log:


Jul 28 07:51:42 uther kernel: [ 1.930622] md: bind<sdb6>
Jul 28 07:51:42 uther kernel: [ 1.931704] md: bind<sdb3>
Jul 28 07:51:42 uther kernel: [ 1.932709] md: bind<sda7>
Jul 28 07:51:42 uther kernel: [ 1.933443] md: bind<sdb7>
Jul 28 07:51:42 uther kernel: [ 1.934671] md: raid1 personality register ed for level 1
Jul 28 07:51:42 uther kernel: [ 1.934916] md/raid1:md126: active with 2 out of 2 mirrors
Jul 28 07:51:42 uther kernel: [ 1.934987] created bitmap (2 pages) for d evice md126
Jul 28 07:51:42 uther kernel: [ 1.935071] md126: bitmap initialized from disk: read 1 pages, set 0 of 2669 bits
Jul 28 07:51:42 uther kernel: [ 1.952097] md126: detected capacity chang e from 0 to 179069517824
Jul 28 07:51:42 uther kernel: [ 1.954400] md: bind<sdb5>
Jul 28 07:51:42 uther kernel: [ 1.954820] md126: unknown partition table
Jul 28 07:51:42 uther kernel: [ 1.955734] md: bind<sda3>
Jul 28 07:51:42 uther kernel: [ 1.956890] md/raid1:md1: active with 2 ou t of 2 mirrors
Jul 28 07:51:42 uther kernel: [ 1.956911] md1: detected capacity change from 0 to 13176602624
Jul 28 07:51:42 uther kernel: [ 1.957585] md: bind<sda6>
Jul 28 07:51:42 uther kernel: [ 1.958762] md1: unknown partition table
Jul 28 07:51:42 uther kernel: [ 1.960058] md/raid1:md127: active with 2 out of 2 mirrors
Jul 28 07:51:42 uther kernel: [ 1.960077] md127: detected capacity chang e from 0 to 2991849472
Jul 28 07:51:42 uther kernel: [ 1.960840] md: bind<sda5>
Jul 28 07:51:42 uther kernel: [ 1.961006] md127: unknown partition table
Jul 28 07:51:42 uther kernel: [ 1.962237] md/raid1:md2: active with 2 ou t of 2 mirrors
Jul 28 07:51:42 uther kernel: [ 1.962254] md2: detected capacity change from 0 to 13176602624
Jul 28 07:51:42 uther kernel: [ 1.963223] md: bind<sdb2>
Jul 28 07:51:42 uther kernel: [ 1.963423] md2: unknown partition table
Jul 28 07:51:42 uther kernel: [ 1.965864] md: bind<sda2>
Jul 28 07:51:42 uther kernel: [ 1.967575] md/raid1:md0: active with 2 ou t of 2 mirrors
Jul 28 07:51:42 uther kernel: [ 1.967592] md0: detected capacity change from 0 to 31466586112
Jul 28 07:51:42 uther kernel: [ 1.969172] md0: unknown partition table
Jul 28 07:51:42 uther kernel: [ 4.871853] EXT4-fs (md1): mounting ext3 f ile system using the ext4 subsystem
Jul 28 07:51:42 uther kernel: [ 4.874561] EXT4-fs (md1): mounted filesys tem with ordered data mode. Opts: (null)
Jul 28 07:51:42 uther kernel: [ 5.275584] EXT4-fs (md1): re-mounted. Opt s: errors=remount-ro
Jul 28 07:51:42 uther kernel: [ 5.446537] EXT4-fs (md2): mounted filesys tem with ordered data mode. Opts: (null)
Jul 28 07:51:42 uther kernel: [ 5.517726] EXT4-fs (md0): mounting ext3 f ile system using the ext4 subsystem
Jul 28 07:51:42 uther kernel: [ 5.518987] EXT4-fs (md0): mounted filesys tem with ordered data mode. Opts: (null)
Jul 28 07:51:42 uther kernel: [ 113.731920] md126: detected capacity chang e from 179069517824 to 0
Jul 28 07:51:42 uther kernel: [ 113.731928] md: md126 stopped.
Jul 28 07:51:42 uther kernel: [ 113.731934] md: unbind<sdb7>
Jul 28 07:51:42 uther kernel: [ 113.747752] md: export_rdev(sdb7)
Jul 28 07:51:42 uther kernel: [ 113.747868] md: unbind<sda7>
Jul 28 07:51:42 uther kernel: [ 113.763752] md: export_rdev(sda7)
Jul 28 07:51:42 uther kernel: [ 120.443529] md127: detected capacity chang e from 2991849472 to 0
Jul 28 07:51:42 uther kernel: [ 120.443535] md: md127 stopped.
Jul 28 07:51:42 uther kernel: [ 120.443538] md: unbind<sda6>
Jul 28 07:51:42 uther kernel: [ 120.459186] md: export_rdev(sda6)
Jul 28 07:51:42 uther kernel: [ 120.459306] md: unbind<sdb6>
Jul 28 07:51:42 uther kernel: [ 120.475222] md: export_rdev(sdb6)
Jul 28 07:51:42 uther kernel: [ 154.979098] md: bind<sda7>
Jul 28 07:51:42 uther kernel: [ 154.979640] md: bind<sdb7>
Jul 28 07:51:42 uther kernel: [ 154.985074] md/raid1:md4: not clean -- sta rting background reconstruction
Jul 28 07:51:42 uther kernel: [ 154.985078] md/raid1:md4: active with 2 ou t of 2 mirrors
Jul 28 07:51:42 uther kernel: [ 154.985160] created bitmap (2 pages) for d evice md4
Jul 28 07:51:42 uther kernel: [ 154.985377] md4: bitmap initialized from d isk: read 1 pages, set 2669 of 2669 bits
Jul 28 07:51:42 uther kernel: [ 155.001356] md4: detected capacity change from 0 to 179069517824
Jul 28 07:51:42 uther kernel: [ 155.001416] md: md4 switched to read-write mode.
Jul 28 07:51:42 uther kernel: [ 155.004239] md: resync of RAID array md4
Jul 28 07:51:42 uther kernel: [ 155.004241] md: minimum _guaranteed_ spee d: 1000 KB/sec/disk.
Jul 28 07:51:42 uther kernel: [ 155.004244] md4: unknown partition table
Jul 28 07:51:42 uther kernel: [ 155.004246] md: using maximum available id le IO bandwidth (but not more than 200000 KB/sec) for resync.
Jul 28 07:51:42 uther kernel: [ 155.004252] md: using 128k window, over a total of 174872576k.
Jul 28 07:51:42 uther kernel: [ 155.146840] EXT4-fs (md4): mounted filesys tem with ordered data mode. Opts: (null)
Jul 28 07:51:42 uther kernel: [ 174.252643] md: bind<sda6>
Jul 28 07:51:42 uther kernel: [ 174.255221] md: bind<sdb6>
Jul 28 07:51:42 uther kernel: [ 174.258380] md/raid1:md3: not clean -- sta rting background reconstruction
Jul 28 07:51:42 uther kernel: [ 174.258388] md/raid1:md3: active with 2 ou t of 2 mirrors
Jul 28 07:51:42 uther kernel: [ 174.258450] md3: detected capacity change from 0 to 2991849472
Jul 28 07:51:42 uther kernel: [ 174.258493] md: md3 switched to read-write mode.
Jul 28 07:51:42 uther kernel: [ 174.260145] md3: unknown partition table
Jul 28 07:51:42 uther kernel: [ 174.266901] md: delaying resync of md3 unt il md4 has finished (they share one or more physical units)
Jul 28 07:51:42 uther kernel: [ 174.287879] Adding 2921724k swap on /dev/m d3. Priority:-1 extents:1 across:2921724k FS
Jul 28 08:04:17 uther kernel: [ 1114.475863] md: md4: resync done.
Jul 28 08:04:17 uther kernel: [ 1114.483396] md: resync of RAID array md3
Jul 28 08:04:17 uther kernel: [ 1114.483405] md: minimum _guaranteed_ spee d: 1000 KB/sec/disk.
Jul 28 08:04:17 uther kernel: [ 1114.483410] md: using maximum available id le IO bandwidth (but not more than 200000 KB/sec) for resync.
Jul 28 08:04:17 uther kernel: [ 1114.483417] md: using 128k window, over a total of 2921728k.
Jul 28 08:04:33 uther kernel: [ 1130.425417] md: md3: resync done.

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Archive: https://lists.debian.org/
Avatar
Christophe De Natale
Le 29 juil. 2015 à 17:09, Thierry Despeyroux a écrit :

Bonjour,

Dans une configuration RAID1 opérationnelle, un disque a commencé à
montrer des signes de faiblesse. J'ai donc voulu remplacé les 2 disques
par des SSD. Les anciens disques étaient des 250G, et les SSD des
240G... Donc aorès moultes manip, je me retrouve avec une configuration
qui tourne. Sauf que, à chaque reboot ça foire.


Bonsoir,

Raid matériel ou logiciel ?
As-tu supprimé les données de configuration de l’ancienn e grappe ?

Cordialement,

Christophe
*Ce que dit cat /proc/mdstat
Personalities : [raid1]
md3 : active raid1 sdb6[1] sda6[0]
2921728 blocks super 1.2 [2/2] [UU]

md4 : active raid1 sdb7[1] sda7[0]
174872576 blocks super 1.2 [2/2] [UU]
bitmap: 1/2 pages [4KB], 65536KB chunk

md0 : active raid1 sda2[3] sdb2[2]
30729088 blocks super 1.2 [2/2] [UU]

md2 : active raid1 sda5[2] sdb5[3]
12867776 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda3[2] sdb3[3]
12867776 blocks super 1.2 [2/2] [UU]

unused devices: <none>

*Ce que dit mdadm --detail --scan
ARRAY /dev/md/1 metadata=1.2 name=uther:1 UUIDT2ab515:6ff448ed:4f04778d:deb50dec
ARRAY /dev/md/2 metadata=1.2 name=uther:2
UUID|f7c432:34ad7dca:f88c2712:bb89bace
ARRAY /dev/md/0 metadata=1.2 name=uther:0
UUID4a3bdc:589c0654:7205bf91:b165f927
ARRAY /dev/md4 metadata=1.2 name=uther:4
UUIDab1da2:d81656eb:c307197b:1603bc2c
ARRAY /dev/md3 metadata=1.2 name=uther:3
UUID0b1085b:e798de40:3bae037c:5033fd30

et c'est ce que j'ai reporté dans /etc/mdadm/mdadm.conf
(pourquoi cette différence entre /dev/md/1 et /dev/md3 ??)

au reboot j'ai un message pour me dire qu'un process est en court sur dev-md4.device et meme chose pour dev-md3.device

puis je me retrouve en mode mono-utilisateur avec des
/dev/md127 et /dev/md126 qui ne sont pas montés bien sur.
J'arrête ces 2 grappes, je crée md3 et md4
et ça roule...

Qu'ai-je loupé ??

Merci pour vitre aide !

Thierry

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Archive: https://lists.debian.org/" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">https://lists.debian.org/




--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Archive: https://lists.debian.org/" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">https://lists.debian.org/
Avatar
Guillaume
Bonsoir,

mdadm ne gère que le raid logiciel.

Cordialement,
Guillaume
Le 29/07/2015 20:51, Christophe De Natale a écrit :


Le 29 juil. 2015 à 17:09, Thierry Despeyroux a écrit :

Bonjour,

Dans une configuration RAID1 opérationnelle, un disque a commencé à
montrer des signes de faiblesse. J'ai donc voulu remplacé les 2 disques
par des SSD. Les anciens disques étaient des 250G, et les SSD des
240G... Donc aorès moultes manip, je me retrouve avec une configuration
qui tourne. Sauf que, à chaque reboot ça foire.


Bonsoir,

Raid matériel ou logiciel ?
As-tu supprimé les données de configuration de l’ancienne grappe ?

Cordialement,

Christophe
*Ce que dit cat /proc/mdstat
Personalities : [raid1]
md3 : active raid1 sdb6[1] sda6[0]
2921728 blocks super 1.2 [2/2] [UU]

md4 : active raid1 sdb7[1] sda7[0]
174872576 blocks super 1.2 [2/2] [UU]
bitmap: 1/2 pages [4KB], 65536KB chunk

md0 : active raid1 sda2[3] sdb2[2]
30729088 blocks super 1.2 [2/2] [UU]

md2 : active raid1 sda5[2] sdb5[3]
12867776 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda3[2] sdb3[3]
12867776 blocks super 1.2 [2/2] [UU]

unused devices: <none>

*Ce que dit mdadm --detail --scan
ARRAY /dev/md/1 metadata=1.2 name=uther:1 UUIDT2ab515:6ff448ed:4f04778d:deb50dec
ARRAY /dev/md/2 metadata=1.2 name=uther:2
UUID|f7c432:34ad7dca:f88c2712:bb89bace
ARRAY /dev/md/0 metadata=1.2 name=uther:0
UUID4a3bdc:589c0654:7205bf91:b165f927
ARRAY /dev/md4 metadata=1.2 name=uther:4
UUIDab1da2:d81656eb:c307197b:1603bc2c
ARRAY /dev/md3 metadata=1.2 name=uther:3
UUID0b1085b:e798de40:3bae037c:5033fd30

et c'est ce que j'ai reporté dans /etc/mdadm/mdadm.conf
(pourquoi cette différence entre /dev/md/1 et /dev/md3 ??)

au reboot j'ai un message pour me dire qu'un process est en court sur dev-md4.device et meme chose pour dev-md3.device

puis je me retrouve en mode mono-utilisateur avec des
/dev/md127 et /dev/md126 qui ne sont pas montés bien sur.
J'arrête ces 2 grappes, je crée md3 et md4
et ça roule...

Qu'ai-je loupé ??

Merci pour vitre aide !

Thierry

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Archive: https://lists.debian.org/" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">https://lists.debian.org/






--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Archive: https://lists.debian.org/" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">https://lists.debian.org/
Avatar
Thierry Despeyroux
C'est du raid soft, oui.
L'ancienne configuration devait être sur les des vieux disques, mais
ils ont été reformatés depuis.

En revanche, suite à une mise à jour de mon système je m'ape rçois
qu'il y a un problème d'UUID. Je n'ai pas encore testé, je vais v oir ça
ce soir...

update-initramfs: Generating /boot/initrd.img-3.16-3-amd64
W: mdadm: the array /dev/md4 with UUID
1fab1da2:d81656eb:c307197b:1603bc2c W: mdadm: is currently active, but
it is not listed in mdadm.conf. if W: mdadm: it is needed for boot,
then YOUR SYSTEM IS NOW UNBOOTABLE! W: mdadm: please inspect the output
of /usr/share/mdadm/mkconf, compare W: mdadm: it
to /etc/mdadm/mdadm.conf, and make the necessary changes. W: mdadm: the
array /dev/md3 with UUID 30b1085b:e798de40:3bae037c:5033fd30 W: mdadm:
is currently active, but it is not listed in mdadm.conf. if W: mdadm:
it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE! W: mdadm:
please inspect the output of /usr/share/mdadm/mkconf, compare W: mdadm:
it to /etc/mdadm/mdadm.conf, and make the necessary changes.

et en effet la sortie de /usr/share/mdadm/mkconf
est different de celle de mdadm.conf or celui ci avait été gà ©néré
à l'aide de mdadm --detail --scan >> /etc/mdadm/mdadm.conf
j'y perds mon latin


# definitions of existing MD arrays
ARRAY /dev/md/0 metadata=1.2 UUID4a3bdc:589c0654:7205bf91:b165f927
name=uther:0 ARRAY /dev/md/1 metadata=1.2
UUIDT2ab515:6ff448ed:4f04778d:deb50dec name=uther:1 ARRAY /dev/md/2
metadata=1.2 UUID|f7c432:34ad7dca:f88c2712:bb89bace name=uther:2
ARRAY /dev/md/3 metadata=1.2 UUID0b1085b:e798de40:3bae037c:5033fd30
name=uther:3 ARRAY /dev/md/4 metadata=1.2
UUIDab1da2:d81656eb:c307197b:1603bc2c name=uther:4



Le Wed, 29 Jul 2015 23:58:09 +0200,
Guillaume a écrit :

Bonsoir,

mdadm ne gère que le raid logiciel.

Cordialement,
Guillaume
Le 29/07/2015 20:51, Christophe De Natale a écrit :
>
>
>> Le 29 juil. 2015 à 17:09, Thierry Despeyroux
>> a écrit :
>>
>> Bonjour,
>>
>> Dans une configuration RAID1 opérationnelle, un disque a commenc é à
>> montrer des signes de faiblesse. J'ai donc voulu remplacé les 2
>> disques par des SSD. Les anciens disques étaient des 250G, et les
>> SSD des 240G... Donc aorès moultes manip, je me retrouve avec une
>> configuration qui tourne. Sauf que, à chaque reboot ça foire.
> Bonsoir,
>
> Raid matériel ou logiciel ?
> As-tu supprimé les données de configuration de l’anci enne grappe ?
>
> Cordialement,
>
> Christophe
>> *Ce que dit cat /proc/mdstat
>> Personalities : [raid1]
>> md3 : active raid1 sdb6[1] sda6[0]
>> 2921728 blocks super 1.2 [2/2] [UU]
>>
>> md4 : active raid1 sdb7[1] sda7[0]
>> 174872576 blocks super 1.2 [2/2] [UU]
>> bitmap: 1/2 pages [4KB], 65536KB chunk
>>
>> md0 : active raid1 sda2[3] sdb2[2]
>> 30729088 blocks super 1.2 [2/2] [UU]
>>
>> md2 : active raid1 sda5[2] sdb5[3]
>> 12867776 blocks super 1.2 [2/2] [UU]
>>
>> md1 : active raid1 sda3[2] sdb3[3]
>> 12867776 blocks super 1.2 [2/2] [UU]
>>
>> unused devices: <none>
>>
>> *Ce que dit mdadm --detail --scan
>> ARRAY /dev/md/1 metadata=1.2 name=uther:1
>> UUIDT2ab515:6ff448ed:4f04778d:deb50dec ARRAY /dev/md/2
>> metadata=1.2 name=uther:2 UUID|f7c432:34ad7dca:f88c2712:bb89ba ce
>> ARRAY /dev/md/0 metadata=1.2 name=uther:0
>> UUID4a3bdc:589c0654:7205bf91:b165f927
>> ARRAY /dev/md4 metadata=1.2 name=uther:4
>> UUIDab1da2:d81656eb:c307197b:1603bc2c
>> ARRAY /dev/md3 metadata=1.2 name=uther:3
>> UUID0b1085b:e798de40:3bae037c:5033fd30
>>
>> et c'est ce que j'ai reporté dans /etc/mdadm/mdadm.conf
>> (pourquoi cette différence entre /dev/md/1 et /dev/md3 ??)
>>
>> au reboot j'ai un message pour me dire qu'un process est en court
>> sur dev-md4.device et meme chose pour dev-md3.device
>>
>> puis je me retrouve en mode mono-utilisateur avec des
>> /dev/md127 et /dev/md126 qui ne sont pas montés bien sur.
>> J'arrête ces 2 grappes, je crée md3 et md4
>> et ça roule...
>>
>> Qu'ai-je loupé ??
>>
>> Merci pour vitre aide !
>>
>> Thierry
>>
>> --
>> Lisez la FAQ de la liste avant de poser une question :
>> http://wiki.debian.org/fr/FrenchLists" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">http://wiki.debian.org/fr/FrenchLists
>>
>> Pour vous DESABONNER, envoyez un message avec comme objet
>> "unsubscribe" vers
>> En cas de soucis, contactez EN ANGLAIS
>> Archive:
>> https://lists.debian.org/" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">https://lists.debian.org/
>>




--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Archive: https://lists.debian.org/" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">https://lists.debian.org/