Disques de grande capacité et freebsd...

Le
F. Senault
Hello.

J'ai récemment upgradé un NAS avec une carte raid et 6 disques d'un To,
pour faire un gros RAID6 de 4To.

Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux
des problèmes pour gérer un disque de cette capacité (le premier me sort
des nombres fantaisistes de taille - négative, le signe d'un integer
overflow, le second refuse tout net avec un message d'erreur explicite).

Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un
charme, et m'a donné un joli disque avec 3.5T de taille.

Juste par acquis de conscience : y a-t-il un danger à l'utiliser ainsi,
sans slices ni partitions ?

Fred
--
It may of course be possible that risks-awareness and extreme care are
developed in the course of dancing with the fuckup fairy in the pale
moonlight.
(Anthony de Boer in the SDM)
Vidéos High-Tech et Jeu Vidéo
Téléchargements
Vos réponses
Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Ollivier Robert
Le #17379791
Dans l'article F. Senault
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux
des problèmes pour gérer un disque de cette capacité (le premier me sort
des nombres fantaisistes de taille - négative, le signe d'un integer
overflow, le second refuse tout net avec un message d'erreur explicite).



Ah, intéressant. As-tu essayé de démarrer une 7 ?

Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un
charme, et m'a donné un joli disque avec 3.5T de taille.

Juste par acquis de conscience : y a-t-il un danger à l'utiliser ainsi,
sans slices ni partitions ?



Dans mon souvenir, c'est le mode "dangerously dedicated" dont tu pourras
trouver des références. Il devrait fonctionner malgré son nom.

Sinon tu as l'option 7.1 + zfs ;-)
--
Ollivier ROBERT -=- FreeBSD: The Power to Serve -=-
Soutenez les UNIX libres ! FreeBSD Linux NetBSD OpenBSD !
F. Senault
Le #17382011
Le 30 septembre à 10:52, Ollivier Robert a écrit :

Dans l'article F. Senault
Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux
des problèmes pour gérer un disque de cette capacité (le premier me sort
des nombres fantaisistes de taille - négative, le signe d'un integer
overflow, le second refuse tout net avec un message d'erreur explicite).



Ah, intéressant. As-tu essayé de démarrer une 7 ?



Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel
on trouve tous les documents, les fichiers data de plusieurs bases de
données, etc. Si je le coupe, tout est à l'arrêt... :)

Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un
charme, et m'a donné un joli disque avec 3.5T de taille.

Juste par acquis de conscience : y a-t-il un danger à l'utiliser ainsi,
sans slices ni partitions ?



Dans mon souvenir, c'est le mode "dangerously dedicated" dont tu pourras
trouver des références. Il devrait fonctionner malgré son nom.



En gros, tout ce que ça a de dangerous, c'est qu'il n'y a que FreeBSD
qui comprend ce layout, basiquement, non ? Windows ou linux ont besoin
d'une table de partitions et risquent de voir un disque non formatté.

Sinon tu as l'option 7.1 + zfs ;-)



J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un
RAIDZ... ça marche plutôt bien :

14:28 ardberg:/data# df -h .
Filesystem Size Used Avail Capacity Mounted on
data 3.6T 850G 2.7T 23% /data

Fred
--
Don't walk unless the others do? I said walk, like u could use a ride?
Don't walk with a confident stride Then people will walk over u Don't
talk until they tell u 2? Don't talk if it's against the rules? Just
walk away and be a fool? (Prince, Walk Don't Walk)
Thierry B.
Le #17386701
--{ F. Senault a plopé ceci: }--

En gros, tout ce que ça a de dangerous, c'est qu'il n'y a que FreeBSD
qui comprend ce layout, basiquement, non ? Windows ou linux ont besoin
d'une table de partitions et risquent de voir un disque non formatté.



D'après ce que j'ai pu voir dans le passé, Linux n'a pas
forcément besoin d'un disque partitionné. Ceci dit, je n'ai
jamais essayé sur de gros disques > 20Go...


--
Thierry B. a écrit :
Laquelle sortie sinusoïdale est full-compliant avec les
barrel-shifters codés en 12ax7. C'est évident.


Qui a dit que le vocabulaire informatique était horrible ?
xavier
Le #17385571
F. Senault
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel
on trouve tous les documents, les fichiers data de plusieurs bases de
données, etc. Si je le coupe, tout est à l'arrêt... :)



Les nuits et les WE sont les amis de l'admin système :-)

J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un
RAIDZ... ça marche plutôt bien :



Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je
reboote après une mise à jour, je suis souvent obligé de booter en
single user et de faire un "zfs import -f <monpool>"

C'est un bug connu ?

--
XAv
In your pomp and all your glory you're a poorer man than me,
as you lick the boots of death born out of fear.
F. Senault
Le #17385901
Le 30 septembre à 20:35, Xavier a écrit :

F. Senault
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel
on trouve tous les documents, les fichiers data de plusieurs bases de
données, etc. Si je le coupe, tout est à l'arrêt... :)



Les nuits et les WE sont les amis de l'admin système :-)



C'est bien pour ça que je suis toujours au bureau en ce moment ; d'un
autre côté, je viens de passer une demie-heure au téléphone avec mon
boss pour des problèmes de VPN (que je n'ai pas pu résoudre)... dur, les
PME.

J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un
RAIDZ... ça marche plutôt bien :



Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je
reboote après une mise à jour, je suis souvent obligé de booter en
single user et de faire un "zfs import -f <monpool>"

C'est un bug connu ?



Aucune idée de mon côté ; j'ai une machine en ZFS qui a déjà subi
plusieurs cycles d'upgrade sans problèmes, il me semble. Par contre,
ironiquement, j'ai eu les même problèmes avec vinum/gvinum sur mon
serveur de news pendant tout un temps...

Fred
--
Et comme les illusions croulent Je pouvais pleurer tout mon saoul
Attendons seulement le soir Personne ne peut nous voir
Apprends à dormir Glisse lentement Sans réfléchir
Mais n'me demande pas comment (Noir Désir, Apprends à dormir)
F. Senault
Le #17386081
Le 30 septembre à 20:53, F. Senault a écrit :

des problèmes de VPN (que je n'ai pas pu résoudre)



Merci à Billy-boy et son SP3 de windows XP qui réactive discrètement
cette merveille des temps modernes qu'est le firewall windows...

Je devrais lui facturer mes heures...

Fred
--
Something inside of me has opened up its eyes
Why did you put it there did you not realize
This thing inside of me it screams the loudest sound
Sometimes I think I could (Nine Inch Nails, Burn)
lfrigault
Le #17386071
In article "F. Senault" Hello.

J'ai récemment upgradé un NAS avec une carte raid et 6 disques d'un
To, pour faire un gros RAID6 de 4To.

Il se trouve que, sous FreeBSD 6, fdisk et bsdlabel ont tous les deux
des problèmes pour gérer un disque de cette capacité (le premier me
sort des nombres fantaisistes de taille - négative, le signe d'un
integer overflow, le second refuse tout net avec un message d'erreur
explicite).



C'est conforme avec ce que dit le manuel.

% man bsdlabel
...
COMPATIBILITY
Due to the use of an u_int32_t to store the number of sectors,
BSD labels are restricted to a maximum of 2^32-1 sectors. This
usually means 2TB of disk space. Larger disks should be
partitioned using another method such as gpt(8).
...

=> man 8 gpt (je ne suis pas certains que l'on puisse booter dessus mais
ce n'est visiblement pas le but rechercher ici)

sur un 7.0-RELEASE :

% df -h /baie
Filesystem Size Used Avail Capacity Mounted on
/dev/mfid1p1 8.1T 4.6T 2.8T 62% /baie

Mais je connais des gens qui l'on utilisé en 6.x (peut-être même en 5.X)

Par contre, à ma grande surprise, newfs /dev/da1 a marché comme un
charme, et m'a donné un joli disque avec 3.5T de taille.



pas surprenant

Lolo
--
Laurent Frigault | "Les États-Unis sont le seul pays à être passé de la barbarie à la
décadence sans connaître la civilisation." Albert Einstein
Erwan David
Le #17386061
(Xavier) écrivait :

F. Senault
Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel
on trouve tous les documents, les fichiers data de plusieurs bases de
données, etc. Si je le coupe, tout est à l'arrêt... :)



Les nuits et les WE sont les amis de l'admin système :-)



Encore faut-il qu'il y ait des nuits...
Avec des sites de Dublin à Singapour, et des users en amérique du sud,
ça n'existe pas la nuit...

--
Le travail n'est pas une bonne chose. Si ça l'était,
les riches l'auraient accaparé
F. Senault
Le #17390061
Le 30 septembre à 21:16, Laurent Frigault a écrit :

=> man 8 gpt (je ne suis pas certains que l'on puisse booter dessus mais
ce n'est visiblement pas le but rechercher ici)



Du tout.

sur un 7.0-RELEASE :

% df -h /baie
Filesystem Size Used Avail Capacity Mounted on
/dev/mfid1p1 8.1T 4.6T 2.8T 62% /baie

Mais je connais des gens qui l'on utilisé en 6.x (peut-être même en 5.X)



Les warnings de la page de man en 6.1 me refroidissent un peu... :}

Fred
--
Petite soeur de mes nuits Ca m'a manqué tout ça
Quand tu sauvais la face A bien d'autres que moi
Sache que je n'oublie rien mais qu'on efface
A ton étoile (Noir Désir, A ton étoile)
talon
Le #17398331
Xavier
F. Senault
> Hélas non ; le défaut, c'est que c'est _le_ NAS de la boîte, sur lequel
> on trouve tous les documents, les fichiers data de plusieurs bases de
> données, etc. Si je le coupe, tout est à l'arrêt... :)

Les nuits et les WE sont les amis de l'admin système :-)

> J'ai fait ça avec une autre machine, mais avec les disques en JBOD et un
> RAIDZ... ça marche plutôt bien :

Au fait, sur des machines en 7-STABLE (donc 7.1 PRERELEASE) lorsque je
reboote après une mise à jour, je suis souvent obligé de booter en
single user et de faire un "zfs import -f <monpool>"

C'est un bug connu ?



Oui. Voir
http://wiki.freebsd.org/JeremyChadwick/Commonly_reported_issues
ZFS

*

After booting into single-user and doing ZFS-related commands,
then going back into multi-user, ZFS cannot find any pools to mount (zfs
list returns no datasets available)
o

Workaround (confirmed): While in single-user, run
/etc/rc.d/hostid start then /etc/rc.d/zfs start.
o

Workaround: Once back in multi-user, use zpool import -a to
re-import all known ZFS pools. You should only have to do this once.



--

Michel TALON
Publicité
Poster une réponse
Anonyme