Bonjour,
Je cherche un logiciel de téléchargement sous Windows, qui permet de
gérer le * par exemple : telecharger tous les *.bin d'un site. Flashget
ne marche pas à tous les coups, il ne peut pas browser tous les fichiers
d'un site s'il y a un index.html. Je voudrais un truc sur et fiable.
Genre wget sous linux.
Cordialement,
--
Pascal
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Th.A.C
Le problème ne viens pas du logiciel, mais du site.
Normalement, un site renvoie systématiquement index.html (s'il existe et suivant la config du site) et sinon la liste des fichiers (ça aussi c'est paramétrable sur le site).. Mais tu ne peux pas changer ça sauf si tu a accès à la config du site...
Tu peux accéder à un fichier si tu connais son chemin + nom complet mais c'est tout...
Les aspirateurs de site analysent les pages html pour en extraire les références aux fichiers/pages html et ne récupèrent donc que ce qui est référencé. Il est donc possible de cacher des fichiers sur un site sans que tu puisse jamais le savoir...
A noter aussi que ta question n'a rien à voir avec windows 2000...
Le problème ne viens pas du logiciel, mais du site.
Normalement, un site renvoie systématiquement index.html (s'il existe et
suivant la config du site) et sinon la liste des fichiers (ça aussi c'est
paramétrable sur le site)..
Mais tu ne peux pas changer ça sauf si tu a accès à la config du site...
Tu peux accéder à un fichier si tu connais son chemin + nom complet mais
c'est tout...
Les aspirateurs de site analysent les pages html pour en extraire les
références aux fichiers/pages html et ne récupèrent donc que ce qui est
référencé. Il est donc possible de cacher des fichiers sur un site sans que
tu puisse jamais le savoir...
A noter aussi que ta question n'a rien à voir avec windows 2000...
Le problème ne viens pas du logiciel, mais du site.
Normalement, un site renvoie systématiquement index.html (s'il existe et suivant la config du site) et sinon la liste des fichiers (ça aussi c'est paramétrable sur le site).. Mais tu ne peux pas changer ça sauf si tu a accès à la config du site...
Tu peux accéder à un fichier si tu connais son chemin + nom complet mais c'est tout...
Les aspirateurs de site analysent les pages html pour en extraire les références aux fichiers/pages html et ne récupèrent donc que ce qui est référencé. Il est donc possible de cacher des fichiers sur un site sans que tu puisse jamais le savoir...
A noter aussi que ta question n'a rien à voir avec windows 2000...
Pascal
Th.A.C wrote:
Le problème ne viens pas du logiciel, mais du site.
Ba non ca vient du logiciel. Un logiciel doit etre capable de browser un http sans problème. Sous linux, y a la commande wget -r1 -A *.bin http://machin.fr/ Et meme si y a un fichier index.html, ba wget télécharge tous les fichiers *.bin. C'est étonnant qu'un tel soft n'existe pas sous windows?!
A noter aussi que ta question n'a rien à voir avec windows 2000...
Ba si puisque c'est un logiciel sous windows 2000 que je cherche :)
-- Pascal
Th.A.C wrote:
Le problème ne viens pas du logiciel, mais du site.
Ba non ca vient du logiciel. Un logiciel doit etre capable de browser un
http sans problème. Sous linux, y a la commande
wget -r1 -A *.bin http://machin.fr/
Et meme si y a un fichier index.html, ba wget télécharge tous les
fichiers *.bin. C'est étonnant qu'un tel soft n'existe pas sous windows?!
A noter aussi que ta question n'a rien à voir avec windows 2000...
Ba si puisque c'est un logiciel sous windows 2000 que je cherche :)
Le problème ne viens pas du logiciel, mais du site.
Ba non ca vient du logiciel. Un logiciel doit etre capable de browser un http sans problème. Sous linux, y a la commande wget -r1 -A *.bin http://machin.fr/ Et meme si y a un fichier index.html, ba wget télécharge tous les fichiers *.bin. C'est étonnant qu'un tel soft n'existe pas sous windows?!
A noter aussi que ta question n'a rien à voir avec windows 2000...
Ba si puisque c'est un logiciel sous windows 2000 que je cherche :)
-- Pascal
Th.A.C
http://wget.sunsite.dk/#downloading pour le téléchargement dont la version windows .... (hum)
Petit extrait de la documentation: You want to download all the GIFs from an HTTP directory. wget http://host/dir/*.gif doesn't work, since HTTP retrieval does not support globbing.
Le 'browsing' comme tu dis ne se fais qu'en analysant les pages html pour en extraire des références de fichiers.
Donc s'il y a un fichier index.html et si le site est prévu pour retourner ce fichier (ou un autre d'ailleurs) si on ne le spécifie pas dans l'adresse, tu n'auras que ce que l'analyse aura pu trouver...
Quand a ta dernière phrase, ici on ne parle pas de logiciels pour windows 2000 mais de windows 2000 (installation, problèmes, configuration, ...)
http://wget.sunsite.dk/#downloading pour le téléchargement dont la version
windows .... (hum)
Petit extrait de la documentation:
You want to download all the GIFs from an HTTP directory. wget
http://host/dir/*.gif doesn't work, since HTTP retrieval does not support
globbing.
Le 'browsing' comme tu dis ne se fais qu'en analysant les pages html pour en
extraire des références de fichiers.
Donc s'il y a un fichier index.html et si le site est prévu pour retourner
ce fichier (ou un autre d'ailleurs) si on ne le spécifie pas dans l'adresse,
tu n'auras que ce que l'analyse aura pu trouver...
Quand a ta dernière phrase, ici on ne parle pas de logiciels pour windows
2000 mais de windows 2000 (installation, problèmes, configuration, ...)
http://wget.sunsite.dk/#downloading pour le téléchargement dont la version windows .... (hum)
Petit extrait de la documentation: You want to download all the GIFs from an HTTP directory. wget http://host/dir/*.gif doesn't work, since HTTP retrieval does not support globbing.
Le 'browsing' comme tu dis ne se fais qu'en analysant les pages html pour en extraire des références de fichiers.
Donc s'il y a un fichier index.html et si le site est prévu pour retourner ce fichier (ou un autre d'ailleurs) si on ne le spécifie pas dans l'adresse, tu n'auras que ce que l'analyse aura pu trouver...
Quand a ta dernière phrase, ici on ne parle pas de logiciels pour windows 2000 mais de windows 2000 (installation, problèmes, configuration, ...)
Pascal
Th.A.C wrote:
http://wget.sunsite.dk/#downloading pour le téléchargement dont la version windows .... (hum)
Wai bof, c'est super chiant, faut installer cygwin etc... autant rebooter sous linux, c'est plus rapide.
Petit extrait de la documentation: You want to download all the GIFs from an HTTP directory. wget http://host/dir/*.gif doesn't work, since HTTP retrieval does not support globbing.
plus précisément : You want to download all the GIFs from a directory on an HTTP server. You tried wget http://www.server.com/dir/*.gif, but that didn't work because HTTP retrieval does not support globbing. In that case, use:
La commande n'est pas triviale, j'utilise le man à chaque fois que je dois l'utiliser, donc je l'ai récrite de mémoire.
Le 'browsing' comme tu dis ne se fais qu'en analysant les pages html pour en extraire des références de fichiers.
Pas du tout. wget parcourt l'arborescence d'un dossier http en le "browsant", cad qu'il liste tous les fichiers qu'ils contients à l'aide du protocole http, pis télécharge tous les fichiers que l'on désire (*.gif ici). C'est pas super compliqué à faire ca, et que ca n'existe pas sous windows, ca me sidère!
Quand a ta dernière phrase, ici on ne parle pas de logiciels pour windows 2000 mais de windows 2000 (installation, problèmes, configuration, ...)
Non, on parle de tous ce qui a trait à windows. Ce qui inclue mon pb. Car les problèmes de config réseaux, c'est m.p.f.windows2000.reseaux (ou un truc comme ca) etc... pour chaque problème. -- Pascal
Th.A.C wrote:
http://wget.sunsite.dk/#downloading pour le téléchargement dont la version
windows .... (hum)
Wai bof, c'est super chiant, faut installer cygwin etc... autant
rebooter sous linux, c'est plus rapide.
Petit extrait de la documentation:
You want to download all the GIFs from an HTTP directory. wget
http://host/dir/*.gif doesn't work, since HTTP retrieval does not support
globbing.
plus précisément :
You want to download all the GIFs from a directory on an
HTTP server. You tried wget
http://www.server.com/dir/*.gif, but that didn't work
because HTTP retrieval does not support globbing. In
that case, use:
La commande n'est pas triviale, j'utilise le man à chaque fois que je
dois l'utiliser, donc je l'ai récrite de mémoire.
Le 'browsing' comme tu dis ne se fais qu'en analysant les pages html pour en
extraire des références de fichiers.
Pas du tout. wget parcourt l'arborescence d'un dossier http en le
"browsant", cad qu'il liste tous les fichiers qu'ils contients à l'aide
du protocole http, pis télécharge tous les fichiers que l'on désire
(*.gif ici). C'est pas super compliqué à faire ca, et que ca n'existe
pas sous windows, ca me sidère!
Quand a ta dernière phrase, ici on ne parle pas de logiciels pour windows
2000 mais de windows 2000 (installation, problèmes, configuration, ...)
Non, on parle de tous ce qui a trait à windows. Ce qui inclue mon pb.
Car les problèmes de config réseaux, c'est m.p.f.windows2000.reseaux (ou
un truc comme ca) etc... pour chaque problème.
--
Pascal
http://wget.sunsite.dk/#downloading pour le téléchargement dont la version windows .... (hum)
Wai bof, c'est super chiant, faut installer cygwin etc... autant rebooter sous linux, c'est plus rapide.
Petit extrait de la documentation: You want to download all the GIFs from an HTTP directory. wget http://host/dir/*.gif doesn't work, since HTTP retrieval does not support globbing.
plus précisément : You want to download all the GIFs from a directory on an HTTP server. You tried wget http://www.server.com/dir/*.gif, but that didn't work because HTTP retrieval does not support globbing. In that case, use:
La commande n'est pas triviale, j'utilise le man à chaque fois que je dois l'utiliser, donc je l'ai récrite de mémoire.
Le 'browsing' comme tu dis ne se fais qu'en analysant les pages html pour en extraire des références de fichiers.
Pas du tout. wget parcourt l'arborescence d'un dossier http en le "browsant", cad qu'il liste tous les fichiers qu'ils contients à l'aide du protocole http, pis télécharge tous les fichiers que l'on désire (*.gif ici). C'est pas super compliqué à faire ca, et que ca n'existe pas sous windows, ca me sidère!
Quand a ta dernière phrase, ici on ne parle pas de logiciels pour windows 2000 mais de windows 2000 (installation, problèmes, configuration, ...)
Non, on parle de tous ce qui a trait à windows. Ce qui inclue mon pb. Car les problèmes de config réseaux, c'est m.p.f.windows2000.reseaux (ou un truc comme ca) etc... pour chaque problème. -- Pascal
Th.A.C
----- Original Message ----- From: "Pascal" Newsgroups: microsoft.public.fr.windows2000 Sent: Monday, January 05, 2004 5:12 PM Subject: Re: Gestionnaire de téléchargement
Wai bof, c'est super chiant, faut installer cygwin etc... autant rebooter sous linux, c'est plus rapide.
Mais non, il suffit de télécharger le fichier ssllibs097c.zip par exemple et de mettre les 2 dll qu'il contient dans le même répertoire que wget(ou dans winntsystem32). J'ai testé hier soir...
Le 'browsing' comme tu dis ne se fais qu'en analysant les pages html pour en
extraire des références de fichiers.
Pas du tout. wget parcourt l'arborescence d'un dossier http en le "browsant", cad qu'il liste tous les fichiers qu'ils contients à l'aide du protocole http, pis télécharge tous les fichiers que l'on désire (*.gif ici). C'est pas super compliqué à faire ca, et que ca n'existe pas sous windows, ca me sidère!
Petits extraits: -File name wildcard matching and recursive mirroring of directories are available when retrieving via FTP. -Note that these two options do not affect the downloading of HTML files; Wget must load all the HTMLs to know where to go at all--recursive retrieval would make no sense otherwise.
Ce dernier extrait est très clair il me semble...
Le protocole http ne contient aucune commande pour lister une répertoire. Les listes de fichiers qu'on obtiens quelques fois sur des sites sont dues à un paramétrage du site qui envoie cette liste s'il n'y a pas de fichier .html 'par défaut' (en général index.html).
J'avai déja testé la commande que tu cites sur mon site chez free et il n'a récupéré QUE la page index.html. Pour le test, j'avais rajouté un autre fichier et un dossier avec 1 fichier à l'intérieur(aucun de ces fichiers n'était référencé dans index.html).
Pour le choix du newsgroup, je laisse tomber, on n'arrivera jamais à être d'accord sur ce point.
----- Original Message -----
From: "Pascal" <fuck@versign.com>
Newsgroups: microsoft.public.fr.windows2000
Sent: Monday, January 05, 2004 5:12 PM
Subject: Re: Gestionnaire de téléchargement
Wai bof, c'est super chiant, faut installer cygwin etc... autant
rebooter sous linux, c'est plus rapide.
Mais non, il suffit de télécharger le fichier ssllibs097c.zip par exemple et
de mettre les 2 dll qu'il contient dans le même répertoire que wget(ou dans
winntsystem32). J'ai testé hier soir...
Le 'browsing' comme tu dis ne se fais qu'en analysant les pages html
pour en
extraire des références de fichiers.
Pas du tout. wget parcourt l'arborescence d'un dossier http en le
"browsant", cad qu'il liste tous les fichiers qu'ils contients à l'aide
du protocole http, pis télécharge tous les fichiers que l'on désire
(*.gif ici). C'est pas super compliqué à faire ca, et que ca n'existe
pas sous windows, ca me sidère!
Petits extraits:
-File name wildcard matching and recursive mirroring of directories are
available when retrieving via FTP.
-Note that these two options do not affect the downloading of HTML files;
Wget must load all the HTMLs to know where to go at all--recursive retrieval
would make no sense otherwise.
Ce dernier extrait est très clair il me semble...
Le protocole http ne contient aucune commande pour lister une répertoire.
Les listes de fichiers qu'on obtiens quelques fois sur des sites sont dues à
un paramétrage du site qui envoie cette liste s'il n'y a pas de fichier
.html 'par défaut' (en général index.html).
J'avai déja testé la commande que tu cites sur mon site chez free et il n'a
récupéré QUE la page index.html. Pour le test, j'avais rajouté un autre
fichier et un dossier avec 1 fichier à l'intérieur(aucun de ces fichiers
n'était référencé dans index.html).
Pour le choix du newsgroup, je laisse tomber, on n'arrivera jamais à être
d'accord sur ce point.
----- Original Message ----- From: "Pascal" Newsgroups: microsoft.public.fr.windows2000 Sent: Monday, January 05, 2004 5:12 PM Subject: Re: Gestionnaire de téléchargement
Wai bof, c'est super chiant, faut installer cygwin etc... autant rebooter sous linux, c'est plus rapide.
Mais non, il suffit de télécharger le fichier ssllibs097c.zip par exemple et de mettre les 2 dll qu'il contient dans le même répertoire que wget(ou dans winntsystem32). J'ai testé hier soir...
Le 'browsing' comme tu dis ne se fais qu'en analysant les pages html pour en
extraire des références de fichiers.
Pas du tout. wget parcourt l'arborescence d'un dossier http en le "browsant", cad qu'il liste tous les fichiers qu'ils contients à l'aide du protocole http, pis télécharge tous les fichiers que l'on désire (*.gif ici). C'est pas super compliqué à faire ca, et que ca n'existe pas sous windows, ca me sidère!
Petits extraits: -File name wildcard matching and recursive mirroring of directories are available when retrieving via FTP. -Note that these two options do not affect the downloading of HTML files; Wget must load all the HTMLs to know where to go at all--recursive retrieval would make no sense otherwise.
Ce dernier extrait est très clair il me semble...
Le protocole http ne contient aucune commande pour lister une répertoire. Les listes de fichiers qu'on obtiens quelques fois sur des sites sont dues à un paramétrage du site qui envoie cette liste s'il n'y a pas de fichier .html 'par défaut' (en général index.html).
J'avai déja testé la commande que tu cites sur mon site chez free et il n'a récupéré QUE la page index.html. Pour le test, j'avais rajouté un autre fichier et un dossier avec 1 fichier à l'intérieur(aucun de ces fichiers n'était référencé dans index.html).
Pour le choix du newsgroup, je laisse tomber, on n'arrivera jamais à être d'accord sur ce point.
Pascal
Th.A.C wrote:
Mais non, il suffit de télécharger le fichier ssllibs097c.zip par exemple et de mettre les 2 dll qu'il contient dans le même répertoire que wget(ou dans winntsystem32). J'ai testé hier soir...
Oui, c'est même plus simple, il suffit juste de télécharger wget pour windows directement et ca marche.
J'avai déja testé la commande que tu cites sur mon site chez free et il n'a récupéré QUE la page index.html. Pour le test, j'avais rajouté un autre fichier et un dossier avec 1 fichier à l'intérieur(aucun de ces fichiers n'était référencé dans index.html).
Si je comprends bien, tu as essayé de télécharger des fichiers à partir de la racine de ton site, un fichier contenu dans un repertoire? Donne l'url pour que je teste car moi ca marche le download.
Pour le choix du newsgroup, je laisse tomber, on n'arrivera jamais à être d'accord sur ce point.
-- Pascal
Th.A.C wrote:
Mais non, il suffit de télécharger le fichier ssllibs097c.zip par exemple et
de mettre les 2 dll qu'il contient dans le même répertoire que wget(ou dans
winntsystem32). J'ai testé hier soir...
Oui, c'est même plus simple, il suffit juste de télécharger wget pour
windows directement et ca marche.
J'avai déja testé la commande que tu cites sur mon site chez free et il n'a
récupéré QUE la page index.html. Pour le test, j'avais rajouté un autre
fichier et un dossier avec 1 fichier à l'intérieur(aucun de ces fichiers
n'était référencé dans index.html).
Si je comprends bien, tu as essayé de télécharger des fichiers à partir
de la racine de ton site, un fichier contenu dans un repertoire? Donne
l'url pour que je teste car moi ca marche le download.
Pour le choix du newsgroup, je laisse tomber, on n'arrivera jamais à être
d'accord sur ce point.
Mais non, il suffit de télécharger le fichier ssllibs097c.zip par exemple et de mettre les 2 dll qu'il contient dans le même répertoire que wget(ou dans winntsystem32). J'ai testé hier soir...
Oui, c'est même plus simple, il suffit juste de télécharger wget pour windows directement et ca marche.
J'avai déja testé la commande que tu cites sur mon site chez free et il n'a récupéré QUE la page index.html. Pour le test, j'avais rajouté un autre fichier et un dossier avec 1 fichier à l'intérieur(aucun de ces fichiers n'était référencé dans index.html).
Si je comprends bien, tu as essayé de télécharger des fichiers à partir de la racine de ton site, un fichier contenu dans un repertoire? Donne l'url pour que je teste car moi ca marche le download.
Pour le choix du newsgroup, je laisse tomber, on n'arrivera jamais à être d'accord sur ce point.
-- Pascal
Th.A.C
"Pascal" a écrit dans le message de news:3ffc43fc$0$22314$
.... Si je comprends bien, tu as essayé de télécharger des fichiers à partir de la racine de ton site, un fichier contenu dans un repertoire? Donne l'url pour que je teste car moi ca marche le download.
tu prend mon adresse mail de réponse, tu remplaces le @ par un point et tu enlèves le début. il y a à la racine: index.html index.htm telephone.jpg gilles gillesindex.htm gillesindex.html
"Pascal" <fuck@versign.com> a écrit dans le message de
news:3ffc43fc$0$22314$626a54ce@news.free.fr...
....
Si je comprends bien, tu as essayé de télécharger des fichiers à partir
de la racine de ton site, un fichier contenu dans un repertoire? Donne
l'url pour que je teste car moi ca marche le download.
tu prend mon adresse mail de réponse, tu remplaces le @ par un point et tu
enlèves le début.
il y a à la racine:
index.html
index.htm
telephone.jpg
gilles
gillesindex.htm
gillesindex.html
"Pascal" a écrit dans le message de news:3ffc43fc$0$22314$
.... Si je comprends bien, tu as essayé de télécharger des fichiers à partir de la racine de ton site, un fichier contenu dans un repertoire? Donne l'url pour que je teste car moi ca marche le download.
tu prend mon adresse mail de réponse, tu remplaces le @ par un point et tu enlèves le début. il y a à la racine: index.html index.htm telephone.jpg gilles gillesindex.htm gillesindex.html