Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un
repertoire d'un site web.
Je connais wget, mais visiblement, il ne suit que les liens. Donc, si
par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas.
Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger
tout le contenue se trouvant derriere http://www.monsite.fr/gallery/
Est-ce techniquement faisable?
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
ZebX
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un repertoire d'un site web. Je connais wget, mais visiblement, il ne suit que les liens. Donc, si par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas. Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger tout le contenue se trouvant derriere http://www.monsite.fr/gallery/ Est-ce techniquement faisable?
wget le fait avec les bonnes options que je ne connais pas. Sinon httrack est plus simple d'usage pour pour ca. Il interprête même _certains_ javascript pour identifier les liens.
-- ZebX - Mécano-boucher
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un
repertoire d'un site web.
Je connais wget, mais visiblement, il ne suit que les liens. Donc, si
par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas.
Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger
tout le contenue se trouvant derriere http://www.monsite.fr/gallery/
Est-ce techniquement faisable?
wget le fait avec les bonnes options que je ne connais pas.
Sinon httrack est plus simple d'usage pour pour ca. Il interprête même
_certains_ javascript pour identifier les liens.
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un repertoire d'un site web. Je connais wget, mais visiblement, il ne suit que les liens. Donc, si par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas. Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger tout le contenue se trouvant derriere http://www.monsite.fr/gallery/ Est-ce techniquement faisable?
wget le fait avec les bonnes options que je ne connais pas. Sinon httrack est plus simple d'usage pour pour ca. Il interprête même _certains_ javascript pour identifier les liens.
-- ZebX - Mécano-boucher
Tom
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un repertoire d'un site web. Je connais wget, mais visiblement, il ne suit que les liens. Donc, si par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas. Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger tout le contenue se trouvant derriere http://www.monsite.fr/gallery/ Est-ce techniquement faisable?
Il faut une page avec les liens. Genre si il n'y a pas d'index (.php, .htm, etc) généralement le serveur web en crée un par défaut avec une liste des fichiers. Là wget pourra faire quelque chose facilement. Sinon c'est pas possible, sinon ce serait un gros trou de sécurité. Le serveur web est justement une vitrine qui sert à cacher l'arrière boutique (code php, données etc). Donc au mieux un programme qui télécharge "tous" les fichiers d'un répertoire télécharge tous les fichiers du répertoire dont il trouve des liens quelque part.
Tom
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un
repertoire d'un site web.
Je connais wget, mais visiblement, il ne suit que les liens. Donc, si
par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas.
Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger
tout le contenue se trouvant derriere http://www.monsite.fr/gallery/
Est-ce techniquement faisable?
Il faut une page avec les liens. Genre si il n'y a pas d'index (.php,
.htm, etc) généralement le serveur web en crée un par défaut avec une
liste des fichiers. Là wget pourra faire quelque chose facilement.
Sinon c'est pas possible, sinon ce serait un gros trou de sécurité. Le
serveur web est justement une vitrine qui sert à cacher l'arrière
boutique (code php, données etc).
Donc au mieux un programme qui télécharge "tous" les fichiers d'un
répertoire télécharge tous les fichiers du répertoire dont il trouve des
liens quelque part.
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un repertoire d'un site web. Je connais wget, mais visiblement, il ne suit que les liens. Donc, si par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas. Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger tout le contenue se trouvant derriere http://www.monsite.fr/gallery/ Est-ce techniquement faisable?
Il faut une page avec les liens. Genre si il n'y a pas d'index (.php, .htm, etc) généralement le serveur web en crée un par défaut avec une liste des fichiers. Là wget pourra faire quelque chose facilement. Sinon c'est pas possible, sinon ce serait un gros trou de sécurité. Le serveur web est justement une vitrine qui sert à cacher l'arrière boutique (code php, données etc). Donc au mieux un programme qui télécharge "tous" les fichiers d'un répertoire télécharge tous les fichiers du répertoire dont il trouve des liens quelque part.
Tom
Denis Beauregard
Le Mon, 01 Aug 2005 20:13:01 +1200, michelus34 écrivait dans fr.comp.os.linux.configuration:
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un repertoire d'un site web. Je connais wget, mais visiblement, il ne suit que les liens. Donc, si par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas. Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger tout le contenue se trouvant derriere http://www.monsite.fr/gallery/ Est-ce techniquement faisable?
Oui, avec FTP. Mais il faut avoir accès au contenu.
Denis
Le Mon, 01 Aug 2005 20:13:01 +1200, michelus34 <fabing.michel@free.fr>
écrivait dans fr.comp.os.linux.configuration:
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un
repertoire d'un site web.
Je connais wget, mais visiblement, il ne suit que les liens. Donc, si
par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas.
Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger
tout le contenue se trouvant derriere http://www.monsite.fr/gallery/
Est-ce techniquement faisable?
Oui, avec FTP. Mais il faut avoir accès au contenu.
Le Mon, 01 Aug 2005 20:13:01 +1200, michelus34 écrivait dans fr.comp.os.linux.configuration:
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un repertoire d'un site web. Je connais wget, mais visiblement, il ne suit que les liens. Donc, si par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas. Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger tout le contenue se trouvant derriere http://www.monsite.fr/gallery/ Est-ce techniquement faisable?
Oui, avec FTP. Mais il faut avoir accès au contenu.
Denis
noone
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un repertoire d'un site web. Je connais wget, mais visiblement, il ne suit que les liens. Donc, si par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas. Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger tout le contenue se trouvant derriere http://www.monsite.fr/gallery/ Est-ce techniquement faisable?
Je ne sais pas si ça marche dans ce cas mais pour aspirer un site j'utilise "httrack"
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un
repertoire d'un site web.
Je connais wget, mais visiblement, il ne suit que les liens. Donc, si
par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas.
Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger
tout le contenue se trouvant derriere http://www.monsite.fr/gallery/
Est-ce techniquement faisable?
Je ne sais pas si ça marche dans ce cas
mais pour aspirer un site j'utilise "httrack"
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un repertoire d'un site web. Je connais wget, mais visiblement, il ne suit que les liens. Donc, si par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas. Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger tout le contenue se trouvant derriere http://www.monsite.fr/gallery/ Est-ce techniquement faisable?
Je ne sais pas si ça marche dans ce cas mais pour aspirer un site j'utilise "httrack"
ZebX
Je ne sais pas si ça marche dans ce cas mais pour aspirer un site j'utilise "httrack"
httrack marche sur les liens. Là, le monsieur, il veut faire du ftp.
-- ZebX - Mécano-boucher
Je ne sais pas si ça marche dans ce cas
mais pour aspirer un site j'utilise "httrack"
httrack marche sur les liens. Là, le monsieur, il veut faire du ftp.