Le 02/03/2013 12:57, patpro ~ patrick proniewski a écrit :
In article , patpro ~ patrick proniewski wrote:
In article <kgouqd$2ap4$, Cyrille Lefevre <cyrille.lefevre-news% wrote:
Le 28/02/2013 22:31, patpro ~ patrick proniewski a écrit :
ZFS c'est pas bien grave, de toute manière je l'utilise dès que je peux.
Bonjour,
à propos de ZFS, dans une discussion concernant freenas, j'ai eu ou i dire qu'il fallait compter 1 Go de RAM pour 1 To de données ! vous en pensez quoi ?
ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus. Par exemple, si tu actives la déduplication, il semble que le minimu m requis soit autour de 5 Go de ram pour 1To de données.
Dans tous les cas, tu as vraiment intérêt à donner à la machin e autant de RAM que possible. ZFS utilisera tout ce qu'il peut pour maximiser s es performances.
Bonjour,
merci pour toutes ces infos, mais c'est un truc de malade... 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Cordialement,
Cyrille Lefevre. -- mailto:Cyrille.Lefevre-news% supprimer "%nospam% et ".invalid" pour me repondre.
Le 02/03/2013 12:57, patpro ~ patrick proniewski a écrit :
In article
<patpro-D83305.06585001032013@node-81s.pool-1-0.dynamic.totbb.net>,
patpro ~ patrick proniewski <patpro@boleskine.patpro.net> wrote:
In article <kgouqd$2ap4$1@talisker.lacave.net>,
Cyrille Lefevre <cyrille.lefevre-news%nospam@laposte.net.invalid>
wrote:
Le 28/02/2013 22:31, patpro ~ patrick proniewski a écrit :
ZFS c'est pas bien grave, de toute manière je l'utilise dès que je peux.
Bonjour,
à propos de ZFS, dans une discussion concernant freenas, j'ai eu ou i
dire qu'il fallait compter 1 Go de RAM pour 1 To de données !
vous en pensez quoi ?
ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus.
Par exemple, si tu actives la déduplication, il semble que le minimu m
requis soit autour de 5 Go de ram pour 1To de données.
Dans tous les cas, tu as vraiment intérêt à donner à la machin e autant
de RAM que possible. ZFS utilisera tout ce qu'il peut pour maximiser s es
performances.
Bonjour,
merci pour toutes ces infos, mais c'est un truc de malade...
64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Cordialement,
Cyrille Lefevre.
--
mailto:Cyrille.Lefevre-news%nospam@laposte.net.invalid
supprimer "%nospam% et ".invalid" pour me repondre.
Le 02/03/2013 12:57, patpro ~ patrick proniewski a écrit :
In article , patpro ~ patrick proniewski wrote:
In article <kgouqd$2ap4$, Cyrille Lefevre <cyrille.lefevre-news% wrote:
Le 28/02/2013 22:31, patpro ~ patrick proniewski a écrit :
ZFS c'est pas bien grave, de toute manière je l'utilise dès que je peux.
Bonjour,
à propos de ZFS, dans une discussion concernant freenas, j'ai eu ou i dire qu'il fallait compter 1 Go de RAM pour 1 To de données ! vous en pensez quoi ?
ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus. Par exemple, si tu actives la déduplication, il semble que le minimu m requis soit autour de 5 Go de ram pour 1To de données.
Dans tous les cas, tu as vraiment intérêt à donner à la machin e autant de RAM que possible. ZFS utilisera tout ce qu'il peut pour maximiser s es performances.
Bonjour,
merci pour toutes ces infos, mais c'est un truc de malade... 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Cordialement,
Cyrille Lefevre. -- mailto:Cyrille.Lefevre-news% supprimer "%nospam% et ".invalid" pour me repondre.
patpro ~ patrick proniewski
In article <kgu45i$267g$, Cyrille Lefevre <cyrille.lefevre-news% wrote:
>> ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus. >> Par exemple, si tu actives la déduplication, il semble que le minimum >> requis soit autour de 5 Go de ram pour 1To de données.
merci pour toutes ces infos, mais c'est un truc de malade... 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Attention, c'est pour de la déduplication. Il y a somme toute assez peu d'intérêt à faire de la déduplication pour le commun des mortels. J'ai testé sur mes données perso (type NAS à la maison) et ça n'a aucun intérêt. Ça commence à être rentable si tu dédupliques un support de sauvegarde qui stocke le contenu des disques de nombreuses machines identiques (même OS).
Pour une utilisation sans dédup, tu peux te contenter de bien moins, mais plus tu en as, mieux c'est.
Voici un autre exemple : freebsd 8.1, serveur à tout faire (web/mail/backup/...). Trois zpool de 900 Go, 1,8 To, 1,8 To, peu remplis : 70,3 Go, 298 Go, 267 Go, 14 volumes. Compression gzip activée. Le cache ZFS est limité à 4 Go, et l'utilisation est la suivante :
<http://patpro.net/~patpro/cache_et_zfs.png>
Tu noteras que la répartition entre frequently used et recently used est beaucoup moins favorable que sur un serveur qui fait uniquement du web et dont le cache ARC est plus grand (cf mon post précédent). Mais elle est suffisante pour que le serveur fonctionne dans de bonnes conditions.
patpro
-- photo http://photo.patpro.net/ blog http://www.patpro.net/
In article <kgu45i$267g$1@talisker.lacave.net>,
Cyrille Lefevre <cyrille.lefevre-news%nospam@laposte.net.invalid>
wrote:
>> ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus.
>> Par exemple, si tu actives la déduplication, il semble que le minimum
>> requis soit autour de 5 Go de ram pour 1To de données.
merci pour toutes ces infos, mais c'est un truc de malade...
64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Attention, c'est pour de la déduplication. Il y a somme toute assez peu
d'intérêt à faire de la déduplication pour le commun des mortels. J'ai
testé sur mes données perso (type NAS à la maison) et ça n'a aucun
intérêt. Ça commence à être rentable si tu dédupliques un support de
sauvegarde qui stocke le contenu des disques de nombreuses machines
identiques (même OS).
Pour une utilisation sans dédup, tu peux te contenter de bien moins,
mais plus tu en as, mieux c'est.
Voici un autre exemple : freebsd 8.1, serveur à tout faire
(web/mail/backup/...). Trois zpool de 900 Go, 1,8 To, 1,8 To, peu
remplis : 70,3 Go, 298 Go, 267 Go, 14 volumes. Compression gzip activée.
Le cache ZFS est limité à 4 Go, et l'utilisation est la suivante :
<http://patpro.net/~patpro/cache_et_zfs.png>
Tu noteras que la répartition entre frequently used et recently used est
beaucoup moins favorable que sur un serveur qui fait uniquement du web
et dont le cache ARC est plus grand (cf mon post précédent). Mais elle
est suffisante pour que le serveur fonctionne dans de bonnes conditions.
patpro
--
photo http://photo.patpro.net/
blog http://www.patpro.net/
In article <kgu45i$267g$, Cyrille Lefevre <cyrille.lefevre-news% wrote:
>> ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus. >> Par exemple, si tu actives la déduplication, il semble que le minimum >> requis soit autour de 5 Go de ram pour 1To de données.
merci pour toutes ces infos, mais c'est un truc de malade... 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Attention, c'est pour de la déduplication. Il y a somme toute assez peu d'intérêt à faire de la déduplication pour le commun des mortels. J'ai testé sur mes données perso (type NAS à la maison) et ça n'a aucun intérêt. Ça commence à être rentable si tu dédupliques un support de sauvegarde qui stocke le contenu des disques de nombreuses machines identiques (même OS).
Pour une utilisation sans dédup, tu peux te contenter de bien moins, mais plus tu en as, mieux c'est.
Voici un autre exemple : freebsd 8.1, serveur à tout faire (web/mail/backup/...). Trois zpool de 900 Go, 1,8 To, 1,8 To, peu remplis : 70,3 Go, 298 Go, 267 Go, 14 volumes. Compression gzip activée. Le cache ZFS est limité à 4 Go, et l'utilisation est la suivante :
<http://patpro.net/~patpro/cache_et_zfs.png>
Tu noteras que la répartition entre frequently used et recently used est beaucoup moins favorable que sur un serveur qui fait uniquement du web et dont le cache ARC est plus grand (cf mon post précédent). Mais elle est suffisante pour que le serveur fonctionne dans de bonnes conditions.
patpro
-- photo http://photo.patpro.net/ blog http://www.patpro.net/
Francois Tigeot
patpro ~ patrick proniewski wrote:
In article <kgu45i$267g$, Cyrille Lefevre <cyrille.lefevre-news% wrote:
ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus. Par exemple, si tu actives la déduplication, il semble que le minimum requis soit autour de 5 Go de ram pour 1To de données.
merci pour toutes ces infos, mais c'est un truc de malade... 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Attention, c'est pour de la déduplication. Il y a somme toute assez peu d'intérêt à faire de la déduplication pour le commun des mortels.
Sans vouloir chipoter, la déduplication est très pratique; j'ai pu facilement diminuer de 50% l'espace utilisé sur un disque stockant des backups incrémentaux.
Par contre, c'était avec un système de fichier HAMMER, et ça ne demande que 256MB de RAM si on est patient: http://www.shiningsilence.com/dbsdlog/2012/01/19/9014.html
-- Francois Tigeot
patpro ~ patrick proniewski wrote:
In article <kgu45i$267g$1@talisker.lacave.net>,
Cyrille Lefevre <cyrille.lefevre-news%nospam@laposte.net.invalid>
wrote:
ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus.
Par exemple, si tu actives la déduplication, il semble que le minimum
requis soit autour de 5 Go de ram pour 1To de données.
merci pour toutes ces infos, mais c'est un truc de malade...
64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Attention, c'est pour de la déduplication. Il y a somme toute assez peu
d'intérêt à faire de la déduplication pour le commun des mortels.
Sans vouloir chipoter, la déduplication est très pratique; j'ai pu
facilement diminuer de 50% l'espace utilisé sur un disque stockant des
backups incrémentaux.
Par contre, c'était avec un système de fichier HAMMER, et ça ne demande
que 256MB de RAM si on est patient:
http://www.shiningsilence.com/dbsdlog/2012/01/19/9014.html
In article <kgu45i$267g$, Cyrille Lefevre <cyrille.lefevre-news% wrote:
ça dépend ce que tu fais, mais j'ai tendance à penser qu'il faut plus. Par exemple, si tu actives la déduplication, il semble que le minimum requis soit autour de 5 Go de ram pour 1To de données.
merci pour toutes ces infos, mais c'est un truc de malade... 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Attention, c'est pour de la déduplication. Il y a somme toute assez peu d'intérêt à faire de la déduplication pour le commun des mortels.
Sans vouloir chipoter, la déduplication est très pratique; j'ai pu facilement diminuer de 50% l'espace utilisé sur un disque stockant des backups incrémentaux.
Par contre, c'était avec un système de fichier HAMMER, et ça ne demande que 256MB de RAM si on est patient: http://www.shiningsilence.com/dbsdlog/2012/01/19/9014.html
appliance de dedup ? datadomain, quantum ? Chez nous, très content de datadomain malgré les tarifs un peu exorbitants...... On s'en sert pour faire du backup sur disque (de la pseudo VTL avec TSM) et les taux de dedup sont effectivement assez intéressant. Mais le top, c'est pour les sauvegardes de VMs.....là on atteint des taux exceptionnels..... (j'ai pas les chiffres en tête) Désolé d'avoir pourri le thread.... ;-)
-- -------------- A bove ante, ab asino retro, a stulto undique caveto --------------
Le 03/03/2013 12:15, patpro ~ patrick proniewski a écrit :
In article<51332640.1050202@nospam.wolfpond.org.invalid>,
Francois Tigeot<ftigeot@nospam.wolfpond.org.invalid> wrote:
appliance de dedup ? datadomain, quantum ?
Chez nous, très content de datadomain malgré les tarifs un peu
exorbitants......
On s'en sert pour faire du backup sur disque (de la pseudo VTL avec TSM)
et les taux de dedup sont effectivement assez intéressant. Mais le top,
c'est pour les sauvegardes de VMs.....là on atteint des taux
exceptionnels..... (j'ai pas les chiffres en tête)
Désolé d'avoir pourri le thread.... ;-)
--
--------------
A bove ante, ab asino retro, a stulto undique caveto
--------------
appliance de dedup ? datadomain, quantum ? Chez nous, très content de datadomain malgré les tarifs un peu exorbitants...... On s'en sert pour faire du backup sur disque (de la pseudo VTL avec TSM) et les taux de dedup sont effectivement assez intéressant. Mais le top, c'est pour les sauvegardes de VMs.....là on atteint des taux exceptionnels..... (j'ai pas les chiffres en tête) Désolé d'avoir pourri le thread.... ;-)
-- -------------- A bove ante, ab asino retro, a stulto undique caveto --------------
patpro ~ patrick proniewski
In article <513340af$0$1398$, wr35nn89 wrote:
appliance de dedup ? datadomain, quantum ?
datadomain
Chez nous, très content de datadomain malgré les tarifs un peu exorbitants...... On s'en sert pour faire du backup sur disque (de la pseudo VTL avec TSM) et les taux de dedup sont effectivement assez intéressant. Mais le top, c'est pour les sauvegardes de VMs.....là on atteint des taux exceptionnels..... (j'ai pas les chiffres en tête) Désolé d'avoir pourri le thread.... ;-)
:)
-- photo http://photo.patpro.net/ blog http://www.patpro.net/
In article <513340af$0$1398$ba4acef3@reader.news.orange.fr>,
wr35nn89 <wr35nn89@nofree.fr> wrote:
appliance de dedup ? datadomain, quantum ?
datadomain
Chez nous, très content de datadomain malgré les tarifs un peu
exorbitants......
On s'en sert pour faire du backup sur disque (de la pseudo VTL avec TSM)
et les taux de dedup sont effectivement assez intéressant. Mais le top,
c'est pour les sauvegardes de VMs.....là on atteint des taux
exceptionnels..... (j'ai pas les chiffres en tête)
Désolé d'avoir pourri le thread.... ;-)
:)
--
photo http://photo.patpro.net/
blog http://www.patpro.net/
Chez nous, très content de datadomain malgré les tarifs un peu exorbitants...... On s'en sert pour faire du backup sur disque (de la pseudo VTL avec TSM) et les taux de dedup sont effectivement assez intéressant. Mais le top, c'est pour les sauvegardes de VMs.....là on atteint des taux exceptionnels..... (j'ai pas les chiffres en tête) Désolé d'avoir pourri le thread.... ;-)
:)
-- photo http://photo.patpro.net/ blog http://www.patpro.net/
Emmanuel Florac
Le Sun, 03 Mar 2013 12:15:56 +0100, patpro ~ patrick proniewski a écrit:
Ce qu'il faut c'est tester sur ses propres données. Comme je le disais, j'ai monté un ZFS en dedup à la maison, pour tester le résultat sur mes données à moi, et le résultat était autour de 1,01, donc un gain de 1%. Ça n'en vaut pas la chandelle. Et je pense que pour un NAS contenant des données domestiques (musique, video, photo, documents divers, éventuellement quelques Go de backup), ce n'est pas intéressant compte tenu des contraintes de ressources.
Je confirme, j'ai testé aussi et ce n'est pas la panacée. L'inconvénient étant aussi à long terme l'impact sur les performances (les écritures séquentielles tendant à devenir aléatoire, et les lectures itou).
-- Confidence, n.: The feeling you have before you understand the situation.
Le Sun, 03 Mar 2013 12:15:56 +0100, patpro ~ patrick proniewski a écrit:
Ce qu'il faut c'est tester sur ses propres données. Comme je le disais,
j'ai monté un ZFS en dedup à la maison, pour tester le résultat sur mes
données à moi, et le résultat était autour de 1,01, donc un gain de 1%.
Ça n'en vaut pas la chandelle.
Et je pense que pour un NAS contenant des données domestiques (musique,
video, photo, documents divers, éventuellement quelques Go de backup),
ce n'est pas intéressant compte tenu des contraintes de ressources.
Je confirme, j'ai testé aussi et ce n'est pas la panacée. L'inconvénient
étant aussi à long terme l'impact sur les performances (les écritures
séquentielles tendant à devenir aléatoire, et les lectures itou).
--
Confidence, n.: The feeling you have before you understand the situation.
Le Sun, 03 Mar 2013 12:15:56 +0100, patpro ~ patrick proniewski a écrit:
Ce qu'il faut c'est tester sur ses propres données. Comme je le disais, j'ai monté un ZFS en dedup à la maison, pour tester le résultat sur mes données à moi, et le résultat était autour de 1,01, donc un gain de 1%. Ça n'en vaut pas la chandelle. Et je pense que pour un NAS contenant des données domestiques (musique, video, photo, documents divers, éventuellement quelques Go de backup), ce n'est pas intéressant compte tenu des contraintes de ressources.
Je confirme, j'ai testé aussi et ce n'est pas la panacée. L'inconvénient étant aussi à long terme l'impact sur les performances (les écritures séquentielles tendant à devenir aléatoire, et les lectures itou).
-- Confidence, n.: The feeling you have before you understand the situation.
xavier
Cyrille Lefevre <cyrille.lefevre-news% wrote:
merci pour toutes ces infos, mais c'est un truc de malade... 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Ca se tune, au détriment des perfs, évidemment... Pour ma part, j'ai 5GB (4 seulement reconnus) sur un i386, ça ne me pose aucun poblème (*). Mais je ne ferais pas un filer sur du x86, c'est certain.
(*) je l'ai cassé d'une autre façon :-) -- XAv In your pomp and all your glory you're a poorer man than me, as you lick the boots of death born out of fear. (Jethro Tull)
merci pour toutes ces infos, mais c'est un truc de malade...
64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Ca se tune, au détriment des perfs, évidemment... Pour ma part, j'ai 5GB
(4 seulement reconnus) sur un i386, ça ne me pose aucun poblème (*).
Mais je ne ferais pas un filer sur du x86, c'est certain.
(*) je l'ai cassé d'une autre façon :-)
--
XAv
In your pomp and all your glory you're a poorer man than me,
as you lick the boots of death born out of fear.
(Jethro Tull)
merci pour toutes ces infos, mais c'est un truc de malade... 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Ca se tune, au détriment des perfs, évidemment... Pour ma part, j'ai 5GB (4 seulement reconnus) sur un i386, ça ne me pose aucun poblème (*). Mais je ne ferais pas un filer sur du x86, c'est certain.
(*) je l'ai cassé d'une autre façon :-) -- XAv In your pomp and all your glory you're a poorer man than me, as you lick the boots of death born out of fear. (Jethro Tull)
patpro ~ Patrick Proniewski
In article <1kz5kqi.1gc2brk18uw6lgN%, (Xavier) wrote:
Cyrille Lefevre <cyrille.lefevre-news% wrote:
> merci pour toutes ces infos, mais c'est un truc de malade... > 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Ca se tune, au détriment des perfs, évidemment... Pour ma part, j'ai 5GB (4 seulement reconnus) sur un i386, ça ne me pose aucun poblème (*). Mais je ne ferais pas un filer sur du x86, c'est certain.
(*) je l'ai cassé d'une autre façon :-)
en fait, mis à part la déduplication (car son champs d'action recouvre l'intégralité des données - utilisées ou non), la quantité de RAM pour être confortable dépend de la quantité de données vivantes.
patpro
In article <1kz5kqi.1gc2brk18uw6lgN%xavier@groumpf.org>,
xavier@groumpf.org (Xavier) wrote:
> merci pour toutes ces infos, mais c'est un truc de malade...
> 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Ca se tune, au détriment des perfs, évidemment... Pour ma part, j'ai 5GB
(4 seulement reconnus) sur un i386, ça ne me pose aucun poblème (*).
Mais je ne ferais pas un filer sur du x86, c'est certain.
(*) je l'ai cassé d'une autre façon :-)
en fait, mis à part la déduplication (car son champs d'action recouvre
l'intégralité des données - utilisées ou non), la quantité de RAM pour
être confortable dépend de la quantité de données vivantes.
In article <1kz5kqi.1gc2brk18uw6lgN%, (Xavier) wrote:
Cyrille Lefevre <cyrille.lefevre-news% wrote:
> merci pour toutes ces infos, mais c'est un truc de malade... > 64 Go de RAM => 12 To seulement ! c'est limite inadmissible ?
Ca se tune, au détriment des perfs, évidemment... Pour ma part, j'ai 5GB (4 seulement reconnus) sur un i386, ça ne me pose aucun poblème (*). Mais je ne ferais pas un filer sur du x86, c'est certain.
(*) je l'ai cassé d'une autre façon :-)
en fait, mis à part la déduplication (car son champs d'action recouvre l'intégralité des données - utilisées ou non), la quantité de RAM pour être confortable dépend de la quantité de données vivantes.