J'ai un serveur web (hébergé très loin de chez moi), avec un disque
dur de 70 Go.
J'ai un serveur local (samba, mail, etc.) avec un très gros disque
dur.
J'aimerais faire un backup complet du serveur web sur la machine
locale, mis à jour quotidiennement (incrémentalement bien sûr), de
telle sorte qu'en cas de crash du disque dur, je puisse fournir un
tarball complet à l'hébergeur, pour une restauration rapide.
Les permissions doivent être sauvegardées, de même que tous les
fichiers -- y compris /etc/shadow.
Je peux éventuellement me connecter sur la machine distante en tant
que root (seul compte ayant accès à tous les fichiers), mais s'il y
avait un moyen d'éviter, ça serait sympa.
Sur la machine locale, en revanche, je ne veux pas que le script de
backup tourne en root.
Or, si je récupère le fichier /etc/shadow (par exemple) avec les
droits qui vont bien, il sera modifiable uniquement par root.
Il doit y avoir une solution toute simple à côté de laquelle le
béotien que je suis est passé, mais en attendant, je patauge...
J'imagine que ce qu'il me faudrait, c'est un système de fichiers
indépendant (i.e. qui n'est pas monté "normalement", avec "mount"),
qui serait l'image parfaite du serveur web.
ça veut quand même dire qu'à un moment donné, on a sur le disque, simultanément, même briêvement, le fichier original ET le fichier compressé.
Oui.
Donc, j'exagérais en disant qu'il fallait pouvoir stocker 3x le volume de données, mais si la compression atteint par ex. un taux de 50%, on arrive quand même à 2,5
Tu comptes mal, c'est 1,5, pas 2,5.
gvdmoort@skynet.be wrote in message
<1155303150.306553.81110@m79g2000cwm.googlegroups.com>:
ça veut quand même dire
qu'à un moment donné, on a sur le disque, simultanément, même
briêvement, le fichier original ET le fichier compressé.
Oui.
Donc,
j'exagérais en disant qu'il fallait pouvoir stocker 3x le volume de
données, mais si la compression atteint par ex. un taux de 50%, on
arrive quand même à 2,5
ça veut quand même dire qu'à un moment donné, on a sur le disque, simultanément, même briêvement, le fichier original ET le fichier compressé.
Oui.
Donc, j'exagérais en disant qu'il fallait pouvoir stocker 3x le volume de données, mais si la compression atteint par ex. un taux de 50%, on arrive quand même à 2,5
Tu comptes mal, c'est 1,5, pas 2,5.
gvdmoort
Tu comptes mal, c'est 1,5, pas 2,5.
Non, non ; si il y a un fichier tar intermédiaire, je comptais les données + le fichier tar + le fichier tar.gz. Maintenant, puisqu'on m'a appris que tar travaille par flux, si on fait un tar | gzip (ou tar avec l'option z, ça revient au même ?), alors là, oui, ça fait 1,5.
Mais je crois quand même qu'il y a une série d'opérations avec tar qui ne fonctionnent pas quand le fichier est compressé (ajout, effacement dans l'archive...). Il y a peut-être moyen de faire ça en chaînant les tubes, mais je laisse ça aux plus doués.
Bàt,
Gvdmoort
Tu comptes mal, c'est 1,5, pas 2,5.
Non, non ; si il y a un fichier tar intermédiaire, je comptais les
données + le fichier tar + le fichier tar.gz. Maintenant, puisqu'on
m'a appris que tar travaille par flux, si on fait un tar | gzip (ou tar
avec l'option z, ça revient au même ?), alors là, oui, ça fait 1,5.
Mais je crois quand même qu'il y a une série d'opérations avec tar
qui ne fonctionnent pas quand le fichier est compressé (ajout,
effacement dans l'archive...). Il y a peut-être moyen de faire ça en
chaînant les tubes, mais je laisse ça aux plus doués.
Non, non ; si il y a un fichier tar intermédiaire, je comptais les données + le fichier tar + le fichier tar.gz. Maintenant, puisqu'on m'a appris que tar travaille par flux, si on fait un tar | gzip (ou tar avec l'option z, ça revient au même ?), alors là, oui, ça fait 1,5.
Mais je crois quand même qu'il y a une série d'opérations avec tar qui ne fonctionnent pas quand le fichier est compressé (ajout, effacement dans l'archive...). Il y a peut-être moyen de faire ça en chaînant les tubes, mais je laisse ça aux plus doués.