Je voudrais faire une sauvegarde quotidienne (anacron) de mon petit site web en
ne téléchargeant que les fichiers récemment créés ou modifiés.
Je me suis naturellement penché vers "ftp" et "wget" mais je ne m'en sors pas
(trop d'options pour wget, mode récursif pour "ftp" ?).
Cette simple tache dois bien être traitée quelque part mais je ne trouve pas où...
OoO En cette fin de matinée radieuse du dimanche 06 février 2005, vers 11:17, Philippe Idlavi disait:
c'est un peu compliqué pour ce que je veux faire ; je le garde cependant sous le coude pour quand je serai plus grand.
Si tu as la possibilité de l'installer et que tu disposes en plus d'une connexion ssh, c'est la solution la plus simple que je connaisse. -- printk("MASQUERADE: No route: Rusty's brain broke!n"); 2.4.3. linux/net/ipv4/netfilter/ipt_MASQUERADE.c
OoO En cette fin de matinée radieuse du dimanche 06 février 2005, vers
11:17, Philippe Idlavi <newspi@tele2.fr> disait:
c'est un peu compliqué pour ce que je veux faire ; je le garde
cependant sous le coude pour quand je serai plus grand.
Si tu as la possibilité de l'installer et que tu disposes en plus
d'une connexion ssh, c'est la solution la plus simple que je connaisse.
--
printk("MASQUERADE: No route: Rusty's brain broke!n");
2.4.3. linux/net/ipv4/netfilter/ipt_MASQUERADE.c
OoO En cette fin de matinée radieuse du dimanche 06 février 2005, vers 11:17, Philippe Idlavi disait:
c'est un peu compliqué pour ce que je veux faire ; je le garde cependant sous le coude pour quand je serai plus grand.
Si tu as la possibilité de l'installer et que tu disposes en plus d'une connexion ssh, c'est la solution la plus simple que je connaisse. -- printk("MASQUERADE: No route: Rusty's brain broke!n"); 2.4.3. linux/net/ipv4/netfilter/ipt_MASQUERADE.c
Vincent Bernat
OoO Lors de la soirée naissante du dimanche 06 février 2005, vers 18:15, Philippe Idlavi disait:
Si tu as la possibilité de l'installer et que tu disposes en plus d'une connexion ssh, c'est la solution la plus simple que je connaisse.
Plus simple que ça ?...
$ lftp cache off open -u <utilisateur>,<mot_de_passe> <adresse_du_site> mirror --delete --only-newer --no-umask /rep_distant /rep_local close
Oui, une seule commande et surtout plus efficace puisqu'il transfère les différences entre fichiers plutôt que l'intégralité des fichiers. -- Let the data structure the program. - The Elements of Programming Style (Kernighan & Plaugher)
OoO Lors de la soirée naissante du dimanche 06 février 2005, vers
18:15, Philippe Idlavi <newspi@tele2.fr> disait:
Si tu as la possibilité de l'installer et que tu disposes en plus
d'une connexion ssh, c'est la solution la plus simple que je
connaisse.
Plus simple que ça ?...
$ lftp
cache off
open -u <utilisateur>,<mot_de_passe> <adresse_du_site>
mirror --delete --only-newer --no-umask /rep_distant /rep_local
close
Oui, une seule commande et surtout plus efficace puisqu'il transfère
les différences entre fichiers plutôt que l'intégralité des fichiers.
--
Let the data structure the program.
- The Elements of Programming Style (Kernighan & Plaugher)
OoO Lors de la soirée naissante du dimanche 06 février 2005, vers 18:15, Philippe Idlavi disait:
Si tu as la possibilité de l'installer et que tu disposes en plus d'une connexion ssh, c'est la solution la plus simple que je connaisse.
Plus simple que ça ?...
$ lftp cache off open -u <utilisateur>,<mot_de_passe> <adresse_du_site> mirror --delete --only-newer --no-umask /rep_distant /rep_local close
Oui, une seule commande et surtout plus efficace puisqu'il transfère les différences entre fichiers plutôt que l'intégralité des fichiers. -- Let the data structure the program. - The Elements of Programming Style (Kernighan & Plaugher)
Didier Courtaud
Bonjour,
Je voudrais faire une sauvegarde quotidienne (anacron) de mon petit site web en ne téléchargeant que les fichiers récemment créés ou modifiés. Je me suis naturellement penché vers "ftp" et "wget" mais je ne m'en sors pas (trop d'options pour wget, mode récursif pour "ftp" ?). Cette simple tache dois bien être traitée quelque part mais je ne trouve pas où...
Quelqu'un peut-il me donner un coup de pouce ?
Philippe.
Pouquoi ne pas l'aspirer par Httrack par exemple ?
L'aspirateur ne téléchargera que les fichiers nouveaux ou modifiés
Didier
Bonjour,
Je voudrais faire une sauvegarde quotidienne (anacron) de mon petit site
web en ne téléchargeant que les fichiers récemment créés ou modifiés.
Je me suis naturellement penché vers "ftp" et "wget" mais je ne m'en
sors pas (trop d'options pour wget, mode récursif pour "ftp" ?).
Cette simple tache dois bien être traitée quelque part mais je ne trouve
pas où...
Quelqu'un peut-il me donner un coup de pouce ?
Philippe.
Pouquoi ne pas l'aspirer par Httrack par exemple ?
L'aspirateur ne téléchargera que les fichiers nouveaux ou modifiés
Je voudrais faire une sauvegarde quotidienne (anacron) de mon petit site web en ne téléchargeant que les fichiers récemment créés ou modifiés. Je me suis naturellement penché vers "ftp" et "wget" mais je ne m'en sors pas (trop d'options pour wget, mode récursif pour "ftp" ?). Cette simple tache dois bien être traitée quelque part mais je ne trouve pas où...
Quelqu'un peut-il me donner un coup de pouce ?
Philippe.
Pouquoi ne pas l'aspirer par Httrack par exemple ?
L'aspirateur ne téléchargera que les fichiers nouveaux ou modifiés
Didier
Sébastien Kirche
Le 11 fév 2005, Didier Courtaud vraute :
Pouquoi ne pas l'aspirer par Httrack par exemple ?
L'aspirateur ne téléchargera que les fichiers nouveaux ou modifiés
Ce n'est valable que pour un site statique.
S'il y a du php/cgi/whatever le résultat risque de ne pas être celui recherché. :)
De plus, il suffit qu'il y ait une page d'index pour le serveur web, et le contenu des dossiers n'est plus accessible.
-- Sébastien Kirche
Le 11 fév 2005, Didier Courtaud vraute :
Pouquoi ne pas l'aspirer par Httrack par exemple ?
L'aspirateur ne téléchargera que les fichiers nouveaux ou modifiés
Ce n'est valable que pour un site statique.
S'il y a du php/cgi/whatever le résultat risque de ne pas être celui
recherché. :)
De plus, il suffit qu'il y ait une page d'index pour le serveur web, et le
contenu des dossiers n'est plus accessible.