J'ai récemment upgradé un NAS avec une carte raid et 6 disques d'un To,
pour faire un gros RAID6 de 4To.
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux
des problèmes pour gérer un disque de cette capacité (le premier me sort
des nombres fantaisistes de taille - négative, le signe d'un integer
overflow, le second refuse tout net avec un message d'erreur explicite).
Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un
charme, et m'a donné un joli disque avec 3.5T de taille.
Juste par acquis de conscience : y a-t-il un danger à l'utiliser ainsi,
sans slices ni partitions ?
Fred
--
It may of course be possible that risks-awareness and extreme care are
developed in the course of dancing with the fuckup fairy in the pale
moonlight.
(Anthony de Boer in the SDM)
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Ollivier Robert
Dans l'article , F. Senault disait :
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux des problèmes pour gérer un disque de cette capacité (le premier me sort des nombres fantaisistes de taille - négative, le signe d'un integer overflow, le second refuse tout net avec un message d'erreur explicite).
Ah, intéressant. As-tu essayé de démarrer une 7 ?
Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un charme, et m'a donné un joli disque avec 3.5T de taille.
Juste par acquis de conscience : y a-t-il un danger à l'utiliser ainsi, sans slices ni partitions ?
Dans mon souvenir, c'est le mode "dangerously dedicated" dont tu pourras trouver des références. Il devrait fonctionner malgré son nom.
Sinon tu as l'option 7.1 + zfs ;-) -- Ollivier ROBERT -=- FreeBSD: The Power to Serve -=- Soutenez les UNIX libres ! FreeBSD Linux NetBSD OpenBSD !
Dans l'article <7spze3zsi9v7.dlg@glenallachie.lacave.local>,
F. Senault <fred@lacave.net> disait :
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux
des problèmes pour gérer un disque de cette capacité (le premier me sort
des nombres fantaisistes de taille - négative, le signe d'un integer
overflow, le second refuse tout net avec un message d'erreur explicite).
Ah, intéressant. As-tu essayé de démarrer une 7 ?
Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un
charme, et m'a donné un joli disque avec 3.5T de taille.
Juste par acquis de conscience : y a-t-il un danger à l'utiliser ainsi,
sans slices ni partitions ?
Dans mon souvenir, c'est le mode "dangerously dedicated" dont tu pourras
trouver des références. Il devrait fonctionner malgré son nom.
Sinon tu as l'option 7.1 + zfs ;-)
--
Ollivier ROBERT -=- FreeBSD: The Power to Serve -=- roberto@FreeBSD.org
Soutenez les UNIX libres ! FreeBSD Linux NetBSD OpenBSD !
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux des problèmes pour gérer un disque de cette capacité (le premier me sort des nombres fantaisistes de taille - négative, le signe d'un integer overflow, le second refuse tout net avec un message d'erreur explicite).
Ah, intéressant. As-tu essayé de démarrer une 7 ?
Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un charme, et m'a donné un joli disque avec 3.5T de taille.
Juste par acquis de conscience : y a-t-il un danger à l'utiliser ainsi, sans slices ni partitions ?
Dans mon souvenir, c'est le mode "dangerously dedicated" dont tu pourras trouver des références. Il devrait fonctionner malgré son nom.
Sinon tu as l'option 7.1 + zfs ;-) -- Ollivier ROBERT -=- FreeBSD: The Power to Serve -=- Soutenez les UNIX libres ! FreeBSD Linux NetBSD OpenBSD !
F. Senault
Le 30 septembre à 10:52, Ollivier Robert a écrit :
Dans l'article , F. Senault disait :
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux des problèmes pour gérer un disque de cette capacité (le premier me sort des nombres fantaisistes de taille - négative, le signe d'un integer overflow, le second refuse tout net avec un message d'erreur explicite).
Ah, intéressant. As-tu essayé de démarrer une 7 ?
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel on trouve tous les documents, les fichiers data de plusieurs bases de données, etc. Si je le coupe, tout est à l'arrêt... :)
Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un charme, et m'a donné un joli disque avec 3.5T de taille.
Juste par acquis de conscience : y a-t-il un danger à l'utiliser ainsi, sans slices ni partitions ?
Dans mon souvenir, c'est le mode "dangerously dedicated" dont tu pourras trouver des références. Il devrait fonctionner malgré son nom.
En gros, tout ce que ça a de dangerous, c'est qu'il n'y a que FreeBSD qui comprend ce layout, basiquement, non ? Windows ou linux ont besoin d'une table de partitions et risquent de voir un disque non formatté.
Sinon tu as l'option 7.1 + zfs ;-)
J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un RAIDZ... ça marche plutôt bien :
14:28 ardberg:/data# df -h . Filesystem Size Used Avail Capacity Mounted on data 3.6T 850G 2.7T 23% /data
Fred -- Don't walk unless the others do? I said walk, like u could use a ride? Don't walk with a confident stride Then people will walk over u Don't talk until they tell u 2? Don't talk if it's against the rules? Just walk away and be a fool? (Prince, Walk Don't Walk)
Le 30 septembre à 10:52, Ollivier Robert a écrit :
Dans l'article <7spze3zsi9v7.dlg@glenallachie.lacave.local>,
F. Senault <fred@lacave.net> disait :
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux
des problèmes pour gérer un disque de cette capacité (le premier me sort
des nombres fantaisistes de taille - négative, le signe d'un integer
overflow, le second refuse tout net avec un message d'erreur explicite).
Ah, intéressant. As-tu essayé de démarrer une 7 ?
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel
on trouve tous les documents, les fichiers data de plusieurs bases de
données, etc. Si je le coupe, tout est à l'arrêt... :)
Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un
charme, et m'a donné un joli disque avec 3.5T de taille.
Juste par acquis de conscience : y a-t-il un danger à l'utiliser ainsi,
sans slices ni partitions ?
Dans mon souvenir, c'est le mode "dangerously dedicated" dont tu pourras
trouver des références. Il devrait fonctionner malgré son nom.
En gros, tout ce que ça a de dangerous, c'est qu'il n'y a que FreeBSD
qui comprend ce layout, basiquement, non ? Windows ou linux ont besoin
d'une table de partitions et risquent de voir un disque non formatté.
Sinon tu as l'option 7.1 + zfs ;-)
J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un
RAIDZ... ça marche plutôt bien :
14:28 ardberg:/data# df -h .
Filesystem Size Used Avail Capacity Mounted on
data 3.6T 850G 2.7T 23% /data
Fred
--
Don't walk unless the others do? I said walk, like u could use a ride?
Don't walk with a confident stride Then people will walk over u Don't
talk until they tell u 2? Don't talk if it's against the rules? Just
walk away and be a fool? (Prince, Walk Don't Walk)
Le 30 septembre à 10:52, Ollivier Robert a écrit :
Dans l'article , F. Senault disait :
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux des problèmes pour gérer un disque de cette capacité (le premier me sort des nombres fantaisistes de taille - négative, le signe d'un integer overflow, le second refuse tout net avec un message d'erreur explicite).
Ah, intéressant. As-tu essayé de démarrer une 7 ?
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel on trouve tous les documents, les fichiers data de plusieurs bases de données, etc. Si je le coupe, tout est à l'arrêt... :)
Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un charme, et m'a donné un joli disque avec 3.5T de taille.
Juste par acquis de conscience : y a-t-il un danger à l'utiliser ainsi, sans slices ni partitions ?
Dans mon souvenir, c'est le mode "dangerously dedicated" dont tu pourras trouver des références. Il devrait fonctionner malgré son nom.
En gros, tout ce que ça a de dangerous, c'est qu'il n'y a que FreeBSD qui comprend ce layout, basiquement, non ? Windows ou linux ont besoin d'une table de partitions et risquent de voir un disque non formatté.
Sinon tu as l'option 7.1 + zfs ;-)
J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un RAIDZ... ça marche plutôt bien :
14:28 ardberg:/data# df -h . Filesystem Size Used Avail Capacity Mounted on data 3.6T 850G 2.7T 23% /data
Fred -- Don't walk unless the others do? I said walk, like u could use a ride? Don't walk with a confident stride Then people will walk over u Don't talk until they tell u 2? Don't talk if it's against the rules? Just walk away and be a fool? (Prince, Walk Don't Walk)
Thierry B.
--{ F. Senault a plopé ceci: }--
En gros, tout ce que ça a de dangerous, c'est qu'il n'y a que FreeBSD qui comprend ce layout, basiquement, non ? Windows ou linux ont besoin d'une table de partitions et risquent de voir un disque non formatté.
D'après ce que j'ai pu voir dans le passé, Linux n'a pas forcément besoin d'un disque partitionné. Ceci dit, je n'ai jamais essayé sur de gros disques > 20Go...
-- Thierry B. a écrit :
Laquelle sortie sinusoïdale est full-compliant avec les barrel-shifters codés en 12ax7. C'est évident.
Qui a dit que le vocabulaire informatique était horrible ?
--{ F. Senault a plopé ceci: }--
En gros, tout ce que ça a de dangerous, c'est qu'il n'y a que FreeBSD
qui comprend ce layout, basiquement, non ? Windows ou linux ont besoin
d'une table de partitions et risquent de voir un disque non formatté.
D'après ce que j'ai pu voir dans le passé, Linux n'a pas
forcément besoin d'un disque partitionné. Ceci dit, je n'ai
jamais essayé sur de gros disques > 20Go...
--
Thierry B. a écrit :
Laquelle sortie sinusoïdale est full-compliant avec les
barrel-shifters codés en 12ax7. C'est évident.
Qui a dit que le vocabulaire informatique était horrible ?
En gros, tout ce que ça a de dangerous, c'est qu'il n'y a que FreeBSD qui comprend ce layout, basiquement, non ? Windows ou linux ont besoin d'une table de partitions et risquent de voir un disque non formatté.
D'après ce que j'ai pu voir dans le passé, Linux n'a pas forcément besoin d'un disque partitionné. Ceci dit, je n'ai jamais essayé sur de gros disques > 20Go...
-- Thierry B. a écrit :
Laquelle sortie sinusoïdale est full-compliant avec les barrel-shifters codés en 12ax7. C'est évident.
Qui a dit que le vocabulaire informatique était horrible ?
xavier
F. Senault wrote:
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel on trouve tous les documents, les fichiers data de plusieurs bases de données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un RAIDZ... ça marche plutôt bien :
Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je reboote après une mise à jour, je suis souvent obligé de booter en single user et de faire un "zfs import -f <monpool>"
C'est un bug connu ?
-- XAv In your pomp and all your glory you're a poorer man than me, as you lick the boots of death born out of fear.
F. Senault <fred@lacave.net> wrote:
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel
on trouve tous les documents, les fichiers data de plusieurs bases de
données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un
RAIDZ... ça marche plutôt bien :
Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je
reboote après une mise à jour, je suis souvent obligé de booter en
single user et de faire un "zfs import -f <monpool>"
C'est un bug connu ?
--
XAv
In your pomp and all your glory you're a poorer man than me,
as you lick the boots of death born out of fear.
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel on trouve tous les documents, les fichiers data de plusieurs bases de données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un RAIDZ... ça marche plutôt bien :
Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je reboote après une mise à jour, je suis souvent obligé de booter en single user et de faire un "zfs import -f <monpool>"
C'est un bug connu ?
-- XAv In your pomp and all your glory you're a poorer man than me, as you lick the boots of death born out of fear.
F. Senault
Le 30 septembre à 20:35, Xavier a écrit :
F. Senault wrote:
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel on trouve tous les documents, les fichiers data de plusieurs bases de données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
C'est bien pour ça que je suis toujours au bureau en ce moment ; d'un autre côté, je viens de passer une demie-heure au téléphone avec mon boss pour des problèmes de VPN (que je n'ai pas pu résoudre)... dur, les PME.
J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un RAIDZ... ça marche plutôt bien :
Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je reboote après une mise à jour, je suis souvent obligé de booter en single user et de faire un "zfs import -f <monpool>"
C'est un bug connu ?
Aucune idée de mon côté ; j'ai une machine en ZFS qui a déjà subi plusieurs cycles d'upgrade sans problèmes, il me semble. Par contre, ironiquement, j'ai eu les même problèmes avec vinum/gvinum sur mon serveur de news pendant tout un temps...
Fred -- Et comme les illusions croulent Je pouvais pleurer tout mon saoul Attendons seulement le soir Personne ne peut nous voir Apprends à dormir Glisse lentement Sans réfléchir Mais n'me demande pas comment (Noir Désir, Apprends à dormir)
Le 30 septembre à 20:35, Xavier a écrit :
F. Senault <fred@lacave.net> wrote:
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel
on trouve tous les documents, les fichiers data de plusieurs bases de
données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
C'est bien pour ça que je suis toujours au bureau en ce moment ; d'un
autre côté, je viens de passer une demie-heure au téléphone avec mon
boss pour des problèmes de VPN (que je n'ai pas pu résoudre)... dur, les
PME.
J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un
RAIDZ... ça marche plutôt bien :
Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je
reboote après une mise à jour, je suis souvent obligé de booter en
single user et de faire un "zfs import -f <monpool>"
C'est un bug connu ?
Aucune idée de mon côté ; j'ai une machine en ZFS qui a déjà subi
plusieurs cycles d'upgrade sans problèmes, il me semble. Par contre,
ironiquement, j'ai eu les même problèmes avec vinum/gvinum sur mon
serveur de news pendant tout un temps...
Fred
--
Et comme les illusions croulent Je pouvais pleurer tout mon saoul
Attendons seulement le soir Personne ne peut nous voir
Apprends à dormir Glisse lentement Sans réfléchir
Mais n'me demande pas comment (Noir Désir, Apprends à dormir)
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel on trouve tous les documents, les fichiers data de plusieurs bases de données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
C'est bien pour ça que je suis toujours au bureau en ce moment ; d'un autre côté, je viens de passer une demie-heure au téléphone avec mon boss pour des problèmes de VPN (que je n'ai pas pu résoudre)... dur, les PME.
J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un RAIDZ... ça marche plutôt bien :
Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je reboote après une mise à jour, je suis souvent obligé de booter en single user et de faire un "zfs import -f <monpool>"
C'est un bug connu ?
Aucune idée de mon côté ; j'ai une machine en ZFS qui a déjà subi plusieurs cycles d'upgrade sans problèmes, il me semble. Par contre, ironiquement, j'ai eu les même problèmes avec vinum/gvinum sur mon serveur de news pendant tout un temps...
Fred -- Et comme les illusions croulent Je pouvais pleurer tout mon saoul Attendons seulement le soir Personne ne peut nous voir Apprends à dormir Glisse lentement Sans réfléchir Mais n'me demande pas comment (Noir Désir, Apprends à dormir)
F. Senault
Le 30 septembre à 20:53, F. Senault a écrit :
des problèmes de VPN (que je n'ai pas pu résoudre)
Merci à Billy-boy et son SP3 de windows XP qui réactive discrètement cette merveille des temps modernes qu'est le firewall windows...
Je devrais lui facturer mes heures...
Fred -- Something inside of me has opened up its eyes Why did you put it there did you not realize This thing inside of me it screams the loudest sound Sometimes I think I could (Nine Inch Nails, Burn)
Le 30 septembre à 20:53, F. Senault a écrit :
des problèmes de VPN (que je n'ai pas pu résoudre)
Merci à Billy-boy et son SP3 de windows XP qui réactive discrètement
cette merveille des temps modernes qu'est le firewall windows...
Je devrais lui facturer mes heures...
Fred
--
Something inside of me has opened up its eyes
Why did you put it there did you not realize
This thing inside of me it screams the loudest sound
Sometimes I think I could (Nine Inch Nails, Burn)
des problèmes de VPN (que je n'ai pas pu résoudre)
Merci à Billy-boy et son SP3 de windows XP qui réactive discrètement cette merveille des temps modernes qu'est le firewall windows...
Je devrais lui facturer mes heures...
Fred -- Something inside of me has opened up its eyes Why did you put it there did you not realize This thing inside of me it screams the loudest sound Sometimes I think I could (Nine Inch Nails, Burn)
lfrigault
In article , "F. Senault" writes: Hello.
J'ai récemment upgradé un NAS avec une carte raid et 6 disques d'un To, pour faire un gros RAID6 de 4To.
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux des problèmes pour gérer un disque de cette capacité (le premier me sort des nombres fantaisistes de taille - négative, le signe d'un integer overflow, le second refuse tout net avec un message d'erreur explicite).
C'est conforme avec ce que dit le manuel.
% man bsdlabel ... COMPATIBILITY Due to the use of an u_int32_t to store the number of sectors, BSD labels are restricted to a maximum of 2^32-1 sectors. This usually means 2TB of disk space. Larger disks should be partitioned using another method such as gpt(8). ...
=> man 8 gpt (je ne suis pas certains que l'on puisse booter dessus mais ce n'est visiblement pas le but rechercher ici)
sur un 7.0-RELEASE :
% df -h /baie Filesystem Size Used Avail Capacity Mounted on /dev/mfid1p1 8.1T 4.6T 2.8T 62% /baie
Mais je connais des gens qui l'on utilisé en 6.x (peut-être même en 5.X)
Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un charme, et m'a donné un joli disque avec 3.5T de taille.
pas surprenant
Lolo -- Laurent Frigault | <url:http://www.agneau.org/> "Les États-Unis sont le seul pays à être passé de la barbarie à la décadence sans connaître la civilisation." Albert Einstein
In article <7spze3zsi9v7.dlg@glenallachie.lacave.local>,
"F. Senault" <fred@lacave.net> writes:
Hello.
J'ai récemment upgradé un NAS avec une carte raid et 6 disques d'un
To, pour faire un gros RAID6 de 4To.
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux
des problèmes pour gérer un disque de cette capacité (le premier me
sort des nombres fantaisistes de taille - négative, le signe d'un
integer overflow, le second refuse tout net avec un message d'erreur
explicite).
C'est conforme avec ce que dit le manuel.
% man bsdlabel
...
COMPATIBILITY
Due to the use of an u_int32_t to store the number of sectors,
BSD labels are restricted to a maximum of 2^32-1 sectors. This
usually means 2TB of disk space. Larger disks should be
partitioned using another method such as gpt(8).
...
=> man 8 gpt (je ne suis pas certains que l'on puisse booter dessus mais
ce n'est visiblement pas le but rechercher ici)
sur un 7.0-RELEASE :
% df -h /baie
Filesystem Size Used Avail Capacity Mounted on
/dev/mfid1p1 8.1T 4.6T 2.8T 62% /baie
Mais je connais des gens qui l'on utilisé en 6.x (peut-être même en 5.X)
Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un
charme, et m'a donné un joli disque avec 3.5T de taille.
pas surprenant
Lolo
--
Laurent Frigault | <url:http://www.agneau.org/>
"Les États-Unis sont le seul pays à être passé de la barbarie à la
décadence sans connaître la civilisation." Albert Einstein
J'ai récemment upgradé un NAS avec une carte raid et 6 disques d'un To, pour faire un gros RAID6 de 4To.
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux des problèmes pour gérer un disque de cette capacité (le premier me sort des nombres fantaisistes de taille - négative, le signe d'un integer overflow, le second refuse tout net avec un message d'erreur explicite).
C'est conforme avec ce que dit le manuel.
% man bsdlabel ... COMPATIBILITY Due to the use of an u_int32_t to store the number of sectors, BSD labels are restricted to a maximum of 2^32-1 sectors. This usually means 2TB of disk space. Larger disks should be partitioned using another method such as gpt(8). ...
=> man 8 gpt (je ne suis pas certains que l'on puisse booter dessus mais ce n'est visiblement pas le but rechercher ici)
sur un 7.0-RELEASE :
% df -h /baie Filesystem Size Used Avail Capacity Mounted on /dev/mfid1p1 8.1T 4.6T 2.8T 62% /baie
Mais je connais des gens qui l'on utilisé en 6.x (peut-être même en 5.X)
Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un charme, et m'a donné un joli disque avec 3.5T de taille.
pas surprenant
Lolo -- Laurent Frigault | <url:http://www.agneau.org/> "Les États-Unis sont le seul pays à être passé de la barbarie à la décadence sans connaître la civilisation." Albert Einstein
Erwan David
(Xavier) écrivait :
F. Senault wrote:
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel on trouve tous les documents, les fichiers data de plusieurs bases de données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
Encore faut-il qu'il y ait des nuits... Avec des sites de Dublin à Singapour, et des users en amérique du sud, ça n'existe pas la nuit...
-- Le travail n'est pas une bonne chose. Si ça l'était, les riches l'auraient accaparé
xavier@groumpf.org (Xavier) écrivait :
F. Senault <fred@lacave.net> wrote:
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel
on trouve tous les documents, les fichiers data de plusieurs bases de
données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
Encore faut-il qu'il y ait des nuits...
Avec des sites de Dublin à Singapour, et des users en amérique du sud,
ça n'existe pas la nuit...
--
Le travail n'est pas une bonne chose. Si ça l'était,
les riches l'auraient accaparé
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel on trouve tous les documents, les fichiers data de plusieurs bases de données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
Encore faut-il qu'il y ait des nuits... Avec des sites de Dublin à Singapour, et des users en amérique du sud, ça n'existe pas la nuit...
-- Le travail n'est pas une bonne chose. Si ça l'était, les riches l'auraient accaparé
F. Senault
Le 30 septembre à 21:16, Laurent Frigault a écrit :
=> man 8 gpt (je ne suis pas certains que l'on puisse booter dessus mais ce n'est visiblement pas le but rechercher ici)
Du tout.
sur un 7.0-RELEASE :
% df -h /baie Filesystem Size Used Avail Capacity Mounted on /dev/mfid1p1 8.1T 4.6T 2.8T 62% /baie
Mais je connais des gens qui l'on utilisé en 6.x (peut-être même en 5.X)
Les warnings de la page de man en 6.1 me refroidissent un peu... :}
Fred -- Petite soeur de mes nuits Ca m'a manqué tout ça Quand tu sauvais la face A bien d'autres que moi Sache que je n'oublie rien mais qu'on efface A ton étoile (Noir Désir, A ton étoile)
Le 30 septembre à 21:16, Laurent Frigault a écrit :
=> man 8 gpt (je ne suis pas certains que l'on puisse booter dessus mais
ce n'est visiblement pas le but rechercher ici)
Du tout.
sur un 7.0-RELEASE :
% df -h /baie
Filesystem Size Used Avail Capacity Mounted on
/dev/mfid1p1 8.1T 4.6T 2.8T 62% /baie
Mais je connais des gens qui l'on utilisé en 6.x (peut-être même en 5.X)
Les warnings de la page de man en 6.1 me refroidissent un peu... :}
Fred
--
Petite soeur de mes nuits Ca m'a manqué tout ça
Quand tu sauvais la face A bien d'autres que moi
Sache que je n'oublie rien mais qu'on efface
A ton étoile (Noir Désir, A ton étoile)
Le 30 septembre à 21:16, Laurent Frigault a écrit :
=> man 8 gpt (je ne suis pas certains que l'on puisse booter dessus mais ce n'est visiblement pas le but rechercher ici)
Du tout.
sur un 7.0-RELEASE :
% df -h /baie Filesystem Size Used Avail Capacity Mounted on /dev/mfid1p1 8.1T 4.6T 2.8T 62% /baie
Mais je connais des gens qui l'on utilisé en 6.x (peut-être même en 5.X)
Les warnings de la page de man en 6.1 me refroidissent un peu... :}
Fred -- Petite soeur de mes nuits Ca m'a manqué tout ça Quand tu sauvais la face A bien d'autres que moi Sache que je n'oublie rien mais qu'on efface A ton étoile (Noir Désir, A ton étoile)
talon
Xavier wrote:
F. Senault wrote:
> Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel > on trouve tous les documents, les fichiers data de plusieurs bases de > données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
> J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un > RAIDZ... ça marche plutôt bien :
Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je reboote après une mise à jour, je suis souvent obligé de booter en single user et de faire un "zfs import -f <monpool>"
After booting into single-user and doing ZFS-related commands, then going back into multi-user, ZFS cannot find any pools to mount (zfs list returns no datasets available) o
Workaround (confirmed): While in single-user, run /etc/rc.d/hostid start then /etc/rc.d/zfs start. o
Workaround: Once back in multi-user, use zpool import -a to re-import all known ZFS pools. You should only have to do this once.
--
Michel TALON
Xavier <xavier@groumpf.org> wrote:
F. Senault <fred@lacave.net> wrote:
> Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel
> on trouve tous les documents, les fichiers data de plusieurs bases de
> données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
> J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un
> RAIDZ... ça marche plutôt bien :
Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je
reboote après une mise à jour, je suis souvent obligé de booter en
single user et de faire un "zfs import -f <monpool>"
After booting into single-user and doing ZFS-related commands,
then going back into multi-user, ZFS cannot find any pools to mount (zfs
list returns no datasets available)
o
Workaround (confirmed): While in single-user, run
/etc/rc.d/hostid start then /etc/rc.d/zfs start.
o
Workaround: Once back in multi-user, use zpool import -a to
re-import all known ZFS pools. You should only have to do this once.
> Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel > on trouve tous les documents, les fichiers data de plusieurs bases de > données, etc. Si je le coupe, tout est à l'arrêt... :)
Les nuits et les WE sont les amis de l'admin système :-)
> J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un > RAIDZ... ça marche plutôt bien :
Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je reboote après une mise à jour, je suis souvent obligé de booter en single user et de faire un "zfs import -f <monpool>"
After booting into single-user and doing ZFS-related commands, then going back into multi-user, ZFS cannot find any pools to mount (zfs list returns no datasets available) o
Workaround (confirmed): While in single-user, run /etc/rc.d/hostid start then /etc/rc.d/zfs start. o
Workaround: Once back in multi-user, use zpool import -a to re-import all known ZFS pools. You should only have to do this once.