Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution
(faire un miroir).
Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées,
fichiers transférés partiellement, fichiers vérolés (??), links par
récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Jean-Francois Billaud
scripsit Jean :
Bonjour,
Bonjour,
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution (faire un miroir). Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées, fichiers transférés partiellement, fichiers vérolés (??), links par récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
-- All syllogisms have three parts, therefore this is not a syllogism.
scripsit Jean :
Bonjour,
Bonjour,
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution
(faire un miroir).
Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées,
fichiers transférés partiellement, fichiers vérolés (??), links par
récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution (faire un miroir). Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées, fichiers transférés partiellement, fichiers vérolés (??), links par récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
-- All syllogisms have three parts, therefore this is not a syllogism.
J. Mayer
On Thu, 04 Dec 2003 21:18:15 +0100, Jean-Francois Billaud wrote:
scripsit Jean :
Bonjour,
Bonjour,
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution (faire un miroir). Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées, fichiers transférés partiellement, fichiers vérolés (??), links par récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
On Thu, 04 Dec 2003 21:18:15 +0100, Jean-Francois Billaud wrote:
scripsit Jean :
Bonjour,
Bonjour,
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution
(faire un miroir).
Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées,
fichiers transférés partiellement, fichiers vérolés (??), links par
récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
On Thu, 04 Dec 2003 21:18:15 +0100, Jean-Francois Billaud wrote:
scripsit Jean :
Bonjour,
Bonjour,
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution (faire un miroir). Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées, fichiers transférés partiellement, fichiers vérolés (??), links par récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
On Thu, 04 Dec 2003 21:18:15 +0100, Jean-Francois Billaud wrote:
scripsit Jean :
Bonjour,
Bonjour,
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution (faire un miroir). Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées, fichiers transférés partiellement, fichiers vérolés (??), links par récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
Tout a fait, et quand la connexion a ete coupee, pour continuer, faire wget -c
J. Mayer a écrit:
On Thu, 04 Dec 2003 21:18:15 +0100, Jean-Francois Billaud wrote:
scripsit Jean :
Bonjour,
Bonjour,
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution
(faire un miroir).
Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées,
fichiers transférés partiellement, fichiers vérolés (??), links par
récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
On Thu, 04 Dec 2003 21:18:15 +0100, Jean-Francois Billaud wrote:
scripsit Jean :
Bonjour,
Bonjour,
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution (faire un miroir). Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées, fichiers transférés partiellement, fichiers vérolés (??), links par récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
Tout a fait, et quand la connexion a ete coupee, pour continuer, faire wget -c
J. Mayer
On Fri, 05 Dec 2003 10:27:46 +0100, motodashilllllll wrote:
J. Mayer a écrit:
On Thu, 04 Dec 2003 21:18:15 +0100, Jean-Francois Billaud wrote:
scripsit Jean :
Bonjour,
Bonjour,
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution (faire un miroir). Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées, fichiers transférés partiellement, fichiers vérolés (??), links par récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
Tout a fait, et quand la connexion a ete coupee, pour continuer, faire wget -c
Oui, et ça marche récursivement sur les sites, en faisant du globbing (pattern matching) au besoin et en suivant les liens... Un outil surpuissant, quand on le maitrise un peu ! Et standard, ce qui ne gache rien :=) Il mériterait de s'inviter dans POSIX...
On Fri, 05 Dec 2003 10:27:46 +0100, motodashilllllll wrote:
J. Mayer a écrit:
On Thu, 04 Dec 2003 21:18:15 +0100, Jean-Francois Billaud wrote:
scripsit Jean :
Bonjour,
Bonjour,
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution
(faire un miroir).
Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées,
fichiers transférés partiellement, fichiers vérolés (??), links par
récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
Tout a fait, et quand la connexion a ete coupee, pour continuer, faire
wget -c
Oui, et ça marche récursivement sur les sites, en faisant du
globbing (pattern matching) au besoin et en suivant les liens...
Un outil surpuissant, quand on le maitrise un peu !
Et standard, ce qui ne gache rien :=)
Il mériterait de s'inviter dans POSIX...
On Fri, 05 Dec 2003 10:27:46 +0100, motodashilllllll wrote:
J. Mayer a écrit:
On Thu, 04 Dec 2003 21:18:15 +0100, Jean-Francois Billaud wrote:
scripsit Jean :
Bonjour,
Bonjour,
Peut-on utiliser rsync pour récupérer l'arborescence d'une distribution (faire un miroir). Parce que jusque là, avec ftp, bonjour la galère : déconnexions non gérées, fichiers transférés partiellement, fichiers vérolés (??), links par récupérés, etc.
Un conseil sur un outil pour faire ce genre d'opération ?
Tout a fait, et quand la connexion a ete coupee, pour continuer, faire wget -c
Oui, et ça marche récursivement sur les sites, en faisant du globbing (pattern matching) au besoin et en suivant les liens... Un outil surpuissant, quand on le maitrise un peu ! Et standard, ce qui ne gache rien :=) Il mériterait de s'inviter dans POSIX...
Jean
"J. Mayer" a écrit dans le message de news:
ou wget, tout simplement...
Oui, ça a l'air pas mal sauf que :
- Je n'ai pas réussi à supprimer l'arborescence supérieure, ex : wget ftp://x.y.org/pub/linux/distrib/9.0 et je me retrouve avec ./pub/linux/9.0/... J'ai essayé avec -nH, sans effet. Je veux juste qu'il me crée un répertoire 9.0 sans tout le pédigré !
- Il n'a pas supporté le test de coupure réseau, j'ai coupé la connexion internet en plein transfert et il est resté figé advita eternam.
Jean
"J. Mayer" <l_indien_no_more_spams@magic.fr> a écrit dans le message de
news:pan.2003.12.04.22.00.49.995903@magic.fr...
ou wget, tout simplement...
Oui, ça a l'air pas mal sauf que :
- Je n'ai pas réussi à supprimer l'arborescence supérieure, ex : wget
ftp://x.y.org/pub/linux/distrib/9.0 et je me retrouve avec
./pub/linux/9.0/... J'ai essayé avec -nH, sans effet. Je veux juste qu'il me
crée un répertoire 9.0 sans tout le pédigré !
- Il n'a pas supporté le test de coupure réseau, j'ai coupé la connexion
internet en plein transfert et il est resté figé advita eternam.
- Je n'ai pas réussi à supprimer l'arborescence supérieure, ex : wget ftp://x.y.org/pub/linux/distrib/9.0 et je me retrouve avec ./pub/linux/9.0/... J'ai essayé avec -nH, sans effet. Je veux juste qu'il me crée un répertoire 9.0 sans tout le pédigré !
- Il n'a pas supporté le test de coupure réseau, j'ai coupé la connexion internet en plein transfert et il est resté figé advita eternam.
Jean
Galkine
On Fri, 05 Dec 2003 12:45:05 +0100, Jean wrote:
"J. Mayer" a écrit dans le message de news:
ou wget, tout simplement...
Oui, ça a l'air pas mal sauf que :
- Je n'ai pas réussi à supprimer l'arborescence supérieure, ex : wget ftp://x.y.org/pub/linux/distrib/9.0 et je me retrouve avec ./pub/linux/9.0/... J'ai essayé avec -nH, sans effet. Je veux juste qu'il me crée un répertoire 9.0 sans tout le pédigré ! wget -c -nH --cut-dirs=3 ftp://x.y.org/pub/linux/distrib/9
- Il n'a pas supporté le test de coupure réseau, j'ai coupé la connexion internet en plein transfert et il est resté figé advita eternam. control c pour areter le programme puis tu le relance
On Fri, 05 Dec 2003 12:45:05 +0100, Jean wrote:
"J. Mayer" <l_indien_no_more_spams@magic.fr> a écrit dans le message de
news:pan.2003.12.04.22.00.49.995903@magic.fr...
ou wget, tout simplement...
Oui, ça a l'air pas mal sauf que :
- Je n'ai pas réussi à supprimer l'arborescence supérieure, ex : wget
ftp://x.y.org/pub/linux/distrib/9.0 et je me retrouve avec
./pub/linux/9.0/... J'ai essayé avec -nH, sans effet. Je veux juste qu'il me
crée un répertoire 9.0 sans tout le pédigré !
wget -c -nH --cut-dirs=3 ftp://x.y.org/pub/linux/distrib/9
- Il n'a pas supporté le test de coupure réseau, j'ai coupé la connexion
internet en plein transfert et il est resté figé advita eternam.
control c pour areter le programme puis tu le relance
- Je n'ai pas réussi à supprimer l'arborescence supérieure, ex : wget ftp://x.y.org/pub/linux/distrib/9.0 et je me retrouve avec ./pub/linux/9.0/... J'ai essayé avec -nH, sans effet. Je veux juste qu'il me crée un répertoire 9.0 sans tout le pédigré ! wget -c -nH --cut-dirs=3 ftp://x.y.org/pub/linux/distrib/9
- Il n'a pas supporté le test de coupure réseau, j'ai coupé la connexion internet en plein transfert et il est resté figé advita eternam. control c pour areter le programme puis tu le relance
J. Mayer
On Fri, 05 Dec 2003 20:35:58 +0100, Galkine wrote:
On Fri, 05 Dec 2003 12:45:05 +0100, Jean wrote:
"J. Mayer" a écrit dans le message de news:
ou wget, tout simplement...
Oui, ça a l'air pas mal sauf que :
- Il n'a pas supporté le test de coupure réseau, j'ai coupé la connexion internet en plein transfert et il est resté figé advita eternam. control c pour areter le programme puis tu le relance
Je confirme: wget supporte très bien les coupures réseaux, tu peux régler les timeout, le nombre de retry, ... et arrêter ou reprendre les téléchargements comme tu en as envie...
On Fri, 05 Dec 2003 20:35:58 +0100, Galkine wrote:
On Fri, 05 Dec 2003 12:45:05 +0100, Jean wrote:
"J. Mayer" <l_indien_no_more_spams@magic.fr> a écrit dans le message de
news:pan.2003.12.04.22.00.49.995903@magic.fr...
ou wget, tout simplement...
Oui, ça a l'air pas mal sauf que :
- Il n'a pas supporté le test de coupure réseau, j'ai coupé la connexion
internet en plein transfert et il est resté figé advita eternam.
control c pour areter le programme puis tu le relance
Je confirme: wget supporte très bien les coupures réseaux,
tu peux régler les timeout, le nombre de retry, ...
et arrêter ou reprendre les téléchargements comme tu en as envie...
On Fri, 05 Dec 2003 20:35:58 +0100, Galkine wrote:
On Fri, 05 Dec 2003 12:45:05 +0100, Jean wrote:
"J. Mayer" a écrit dans le message de news:
ou wget, tout simplement...
Oui, ça a l'air pas mal sauf que :
- Il n'a pas supporté le test de coupure réseau, j'ai coupé la connexion internet en plein transfert et il est resté figé advita eternam. control c pour areter le programme puis tu le relance
Je confirme: wget supporte très bien les coupures réseaux, tu peux régler les timeout, le nombre de retry, ... et arrêter ou reprendre les téléchargements comme tu en as envie...
Jean
"J. Mayer" a écrit dans le message de news:
Je confirme: wget supporte très bien les coupures réseaux, tu peux régler les timeout, le nombre de retry, ... et arrêter ou reprendre les téléchargements comme tu en as envie...
Ce que je voudrais surtout, c'est qu'il se débrouille tout seul la nuit.
Cf. : on lance un download le soir et le lendemain matin, on constate qu'il s'est planté au bout d'une demi-heure.
"J. Mayer" <l_indien_no_more_spams@magic.fr> a écrit dans le message de
news:pan.2003.12.06.00.34.28.812155@magic.fr...
Je confirme: wget supporte très bien les coupures réseaux,
tu peux régler les timeout, le nombre de retry, ...
et arrêter ou reprendre les téléchargements comme tu en as envie...
Ce que je voudrais surtout, c'est qu'il se débrouille tout seul la nuit.
Cf. : on lance un download le soir et le lendemain matin, on constate qu'il
s'est planté au bout d'une demi-heure.
Je confirme: wget supporte très bien les coupures réseaux, tu peux régler les timeout, le nombre de retry, ... et arrêter ou reprendre les téléchargements comme tu en as envie...
Ce que je voudrais surtout, c'est qu'il se débrouille tout seul la nuit.
Cf. : on lance un download le soir et le lendemain matin, on constate qu'il s'est planté au bout d'une demi-heure.
Jean-Francois Billaud
scripsit Jean :
Je confirme: wget supporte très bien les coupures réseaux, tu peux régler les timeout, le nombre de retry, ... et arrêter ou reprendre les téléchargements comme tu en as envie...
Ce que je voudrais surtout, c'est qu'il se débrouille tout seul la nuit.
Cf. : on lance un download le soir et le lendemain matin, on constate qu'il s'est planté au bout d'une demi-heure.
while ! (wget ........ ) ; do : ; done
Plus ça rate plus ça a de chances de réussir.
Voir la page man de bash et celle de crontab.
JFB (Roussel's Fan Club)
-- All syllogisms have three parts, therefore this is not a syllogism.
scripsit Jean :
Je confirme: wget supporte très bien les coupures réseaux,
tu peux régler les timeout, le nombre de retry, ...
et arrêter ou reprendre les téléchargements comme tu en as envie...
Ce que je voudrais surtout, c'est qu'il se débrouille tout seul la nuit.
Cf. : on lance un download le soir et le lendemain matin, on constate qu'il
s'est planté au bout d'une demi-heure.
while ! (wget ........ ) ; do : ; done
Plus ça rate plus ça a de chances de réussir.
Voir la page man de bash et celle de crontab.
JFB (Roussel's Fan Club)
--
All syllogisms have three parts, therefore this is not a syllogism.
Je confirme: wget supporte très bien les coupures réseaux, tu peux régler les timeout, le nombre de retry, ... et arrêter ou reprendre les téléchargements comme tu en as envie...
Ce que je voudrais surtout, c'est qu'il se débrouille tout seul la nuit.
Cf. : on lance un download le soir et le lendemain matin, on constate qu'il s'est planté au bout d'une demi-heure.
while ! (wget ........ ) ; do : ; done
Plus ça rate plus ça a de chances de réussir.
Voir la page man de bash et celle de crontab.
JFB (Roussel's Fan Club)
-- All syllogisms have three parts, therefore this is not a syllogism.
J. Mayer
On Sat, 06 Dec 2003 12:22:18 +0100, Jean wrote:
"J. Mayer" a écrit dans le message de news:
Je confirme: wget supporte très bien les coupures réseaux, tu peux régler les timeout, le nombre de retry, ... et arrêter ou reprendre les téléchargements comme tu en as envie...
Ce que je voudrais surtout, c'est qu'il se débrouille tout seul la nuit.
Cf. : on lance un download le soir et le lendemain matin, on constate qu'il s'est planté au bout d'une demi-heure.
Comme je le disais, tu peux paramétrer le nombre de tentatives pour chaque fichier, les délais de timeout, le delai entre les tentatives, etc...
On Sat, 06 Dec 2003 12:22:18 +0100, Jean wrote:
"J. Mayer" <l_indien_no_more_spams@magic.fr> a écrit dans le message de
news:pan.2003.12.06.00.34.28.812155@magic.fr...
Je confirme: wget supporte très bien les coupures réseaux,
tu peux régler les timeout, le nombre de retry, ...
et arrêter ou reprendre les téléchargements comme tu en as envie...
Ce que je voudrais surtout, c'est qu'il se débrouille tout seul la nuit.
Cf. : on lance un download le soir et le lendemain matin, on constate qu'il
s'est planté au bout d'une demi-heure.
Comme je le disais, tu peux paramétrer le nombre de tentatives
pour chaque fichier, les délais de timeout, le delai entre les
tentatives, etc...
Je confirme: wget supporte très bien les coupures réseaux, tu peux régler les timeout, le nombre de retry, ... et arrêter ou reprendre les téléchargements comme tu en as envie...
Ce que je voudrais surtout, c'est qu'il se débrouille tout seul la nuit.
Cf. : on lance un download le soir et le lendemain matin, on constate qu'il s'est planté au bout d'une demi-heure.
Comme je le disais, tu peux paramétrer le nombre de tentatives pour chaque fichier, les délais de timeout, le delai entre les tentatives, etc...