OVH Cloud OVH Cloud

[freebsd] utilisation des outils de gestion des ports

19 réponses
Avatar
patpro ~ patrick proniewski
Bonjour,

Depuis quelques temps, je m'essaye à l'utilisation de portmaster sur les
nouvelles install de FreeBSD, j'avoue qu'après de nombreuses années à
utiliser portupgrade ça heurte un peu mes habitudes, et surtout je ne
m'y retrouve pas toujours. La dernière fois que j'ai voulu désinstaller
un port, il m'a arraché au passage les 2/3 des ports installés.
Et malheureusement, avec l'évolution de mes fonctions, j'ai de moins en
moins le temps de mettre les mains dans le cambouis, mes outils de
travail principaux devenant le traitement de texte et l'agenda. Mon
apprentissage se fait donc un peu dans la douleur :)

Comment gérez-vous les ports ? Est-ce que vous utilisez complètement
autre chose ? Est-ce que vous utilisez plusieurs de ces outils en
conjonction selon la situation/le but à atteindre ?

patpro

--
photo http://photo.patpro.net/
blog http://www.patpro.net/

9 réponses

1 2
Avatar
Cyrille Lefevre
Le 02/03/2013 12:57, patpro ~ patrick proniewski a écrit :
In article
,
patpro ~ patrick proniewski wrote:

In article <kgouqd$2ap4$,
Cyrille Lefevre <cyrille.lefevre-news%
wrote:

Le 28/02/2013 22:31, patpro ~ patrick proniewski a écrit :
ZFS c'est pas bien grave, de toute manière je l'utilise dès que je peux.



Bonjour,

à propos de ZFS, dans une discussion concernant freenas, j'ai eu ou i
dire qu'il fallait compter 1 Go de RAM pour 1 To de données !
vous en pensez quoi ?



ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus.
Par exemple, si tu actives la déduplication, il semble que le minimu m
requis soit autour de 5 Go de ram pour 1To de données.

Dans tous les cas, tu as vraiment intérêt à donner à la machin e autant
de RAM que possible. ZFS utilisera tout ce qu'il peut pour maximiser s es
performances.






Bonjour,

merci pour toutes ces infos, mais c'est un truc de malade...
64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?

Cordialement,

Cyrille Lefevre.
--
mailto:Cyrille.Lefevre-news%
supprimer "%nospam% et ".invalid" pour me repondre.
Avatar
patpro ~ patrick proniewski
In article <kgu45i$267g$,
Cyrille Lefevre <cyrille.lefevre-news%
wrote:

>> ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus.
>> Par exemple, si tu actives la déduplication, il semble que le minimum
>> requis soit autour de 5 Go de ram pour 1To de données.

merci pour toutes ces infos, mais c'est un truc de malade...
64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?



Attention, c'est pour de la déduplication. Il y a somme toute assez peu
d'intérêt à faire de la déduplication pour le commun des mortels. J'ai
testé sur mes données perso (type NAS à la maison) et ça n'a aucun
intérêt. Ça commence à être rentable si tu dédupliques un support de
sauvegarde qui stocke le contenu des disques de nombreuses machines
identiques (même OS).

Pour une utilisation sans dédup, tu peux te contenter de bien moins,
mais plus tu en as, mieux c'est.

Voici un autre exemple : freebsd 8.1, serveur à tout faire
(web/mail/backup/...). Trois zpool de 900 Go, 1,8 To, 1,8 To, peu
remplis : 70,3 Go, 298 Go, 267 Go, 14 volumes. Compression gzip activée.
Le cache ZFS est limité à 4 Go, et l'utilisation est la suivante :

<http://patpro.net/~patpro/cache_et_zfs.png>

Tu noteras que la répartition entre frequently used et recently used est
beaucoup moins favorable que sur un serveur qui fait uniquement du web
et dont le cache ARC est plus grand (cf mon post précédent). Mais elle
est suffisante pour que le serveur fonctionne dans de bonnes conditions.

patpro

--
photo http://photo.patpro.net/
blog http://www.patpro.net/
Avatar
Francois Tigeot
patpro ~ patrick proniewski wrote:
In article <kgu45i$267g$,
Cyrille Lefevre <cyrille.lefevre-news%
wrote:

ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus.
Par exemple, si tu actives la déduplication, il semble que le minimum
requis soit autour de 5 Go de ram pour 1To de données.





merci pour toutes ces infos, mais c'est un truc de malade...
64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?



Attention, c'est pour de la déduplication. Il y a somme toute assez peu
d'intérêt à faire de la déduplication pour le commun des mortels.



Sans vouloir chipoter, la déduplication est très pratique; j'ai pu
facilement diminuer de 50% l'espace utilisé sur un disque stockant des
backups incrémentaux.

Par contre, c'était avec un système de fichier HAMMER, et ça ne demande
que 256MB de RAM si on est patient:
http://www.shiningsilence.com/dbsdlog/2012/01/19/9014.html

--
Francois Tigeot
Avatar
patpro ~ patrick proniewski
In article ,
Francois Tigeot wrote:

> Attention, c'est pour de la déduplication. Il y a somme toute assez peu
> d'intérêt à faire de la déduplication pour le commun des mortels.

Sans vouloir chipoter, la déduplication est très pratique; j'ai pu
facilement diminuer de 50% l'espace utilisé sur un disque stockant des
backups incrémentaux.

Par contre, c'était avec un système de fichier HAMMER, et ça ne demande
que 256MB de RAM si on est patient:
http://www.shiningsilence.com/dbsdlog/2012/01/19/9014.html



la pertinence de la dédup dépend énormément de ce que tu fais avec ton
stockage. Au boulot j'ai des appliances de backup qui dédupliquent (en
mode bloc), et le résultat est un facteur 28. Quand je stocke 1 To, je
backup en réalité 28 To. Et je stocke dans les 12 To (donc 336 To
dédupliqués).

Ce qu'il faut c'est tester sur ses propres données. Comme je le disais,
j'ai monté un ZFS en dedup à la maison, pour tester le résultat sur mes
données à moi, et le résultat était autour de 1,01, donc un gain de 1%.
Ça n'en vaut pas la chandelle.
Et je pense que pour un NAS contenant des données domestiques (musique,
video, photo, documents divers, éventuellement quelques Go de backup),
ce n'est pas intéressant compte tenu des contraintes de ressources.

patpro

--
photo http://photo.patpro.net/
blog http://www.patpro.net/
Avatar
wr35nn89
Le 03/03/2013 12:15, patpro ~ patrick proniewski a écrit :
In article,
Francois Tigeot wrote:

Attention, c'est pour de la déduplication. Il y a somme toute assez peu
d'intérêt à faire de la déduplication pour le commun des mortels.



Sans vouloir chipoter, la déduplication est très pratique; j'ai pu
facilement diminuer de 50% l'espace utilisé sur un disque stockant des
backups incrémentaux.

Par contre, c'était avec un système de fichier HAMMER, et ça ne demande
que 256MB de RAM si on est patient:
http://www.shiningsilence.com/dbsdlog/2012/01/19/9014.html



la pertinence de la dédup dépend énormément de ce que tu fais avec ton
stockage. Au boulot j'ai des appliances de backup qui dédupliquent (en
mode bloc), et le résultat est un facteur 28. Quand je stocke 1 To, je
backup en réalité 28 To. Et je stocke dans les 12 To (donc 336 To
dédupliqués).

Ce qu'il faut c'est tester sur ses propres données. Comme je le disais,
j'ai monté un ZFS en dedup à la maison, pour tester le résultat sur mes
données à moi, et le résultat était autour de 1,01, donc un gain de 1%.
Ça n'en vaut pas la chandelle.
Et je pense que pour un NAS contenant des données domestiques (musique,
video, photo, documents divers, éventuellement quelques Go de backup),
ce n'est pas intéressant compte tenu des contraintes de ressources.

patpro



appliance de dedup ? datadomain, quantum ?
Chez nous, très content de datadomain malgré les tarifs un peu
exorbitants......
On s'en sert pour faire du backup sur disque (de la pseudo VTL avec TSM)
et les taux de dedup sont effectivement assez intéressant. Mais le top,
c'est pour les sauvegardes de VMs.....là on atteint des taux
exceptionnels..... (j'ai pas les chiffres en tête)
Désolé d'avoir pourri le thread.... ;-)

--
--------------
A bove ante, ab asino retro, a stulto undique caveto
--------------
Avatar
patpro ~ patrick proniewski
In article <513340af$0$1398$,
wr35nn89 wrote:

appliance de dedup ? datadomain, quantum ?



datadomain

Chez nous, très content de datadomain malgré les tarifs un peu
exorbitants......
On s'en sert pour faire du backup sur disque (de la pseudo VTL avec TSM)
et les taux de dedup sont effectivement assez intéressant. Mais le top,
c'est pour les sauvegardes de VMs.....là on atteint des taux
exceptionnels..... (j'ai pas les chiffres en tête)
Désolé d'avoir pourri le thread.... ;-)



:)

--
photo http://photo.patpro.net/
blog http://www.patpro.net/
Avatar
Emmanuel Florac
Le Sun, 03 Mar 2013 12:15:56 +0100, patpro ~ patrick proniewski a écrit:

Ce qu'il faut c'est tester sur ses propres données. Comme je le disais,
j'ai monté un ZFS en dedup à la maison, pour tester le résultat sur mes
données à moi, et le résultat était autour de 1,01, donc un gain de 1%.
Ça n'en vaut pas la chandelle.
Et je pense que pour un NAS contenant des données domestiques (musique,
video, photo, documents divers, éventuellement quelques Go de backup),
ce n'est pas intéressant compte tenu des contraintes de ressources.



Je confirme, j'ai testé aussi et ce n'est pas la panacée. L'inconvénient
étant aussi à long terme l'impact sur les performances (les écritures
séquentielles tendant à devenir aléatoire, et les lectures itou).


--
Confidence, n.: The feeling you have before you understand the situation.
Avatar
xavier
Cyrille Lefevre <cyrille.lefevre-news% wrote:

merci pour toutes ces infos, mais c'est un truc de malade...
64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?



Ca se tune, au détriment des perfs, évidemment... Pour ma part, j'ai 5GB
(4 seulement reconnus) sur un i386, ça ne me pose aucun poblème (*).
Mais je ne ferais pas un filer sur du x86, c'est certain.

(*) je l'ai cassé d'une autre façon :-)
--
XAv
In your pomp and all your glory you're a poorer man than me,
as you lick the boots of death born out of fear.
(Jethro Tull)
Avatar
patpro ~ Patrick Proniewski
In article <1kz5kqi.1gc2brk18uw6lgN%,
(Xavier) wrote:

Cyrille Lefevre <cyrille.lefevre-news% wrote:

> merci pour toutes ces infos, mais c'est un truc de malade...
> 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?

Ca se tune, au détriment des perfs, évidemment... Pour ma part, j'ai 5GB
(4 seulement reconnus) sur un i386, ça ne me pose aucun poblème (*).
Mais je ne ferais pas un filer sur du x86, c'est certain.

(*) je l'ai cassé d'une autre façon :-)



en fait, mis à part la déduplication (car son champs d'action recouvre
l'intégralité des données - utilisées ou non), la quantité de RAM pour
être confortable dépend de la quantité de données vivantes.

patpro
1 2