Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

telecharger un site.

5 réponses
Avatar
michelus34
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un
repertoire d'un site web.
Je connais wget, mais visiblement, il ne suit que les liens. Donc, si
par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas.
Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger
tout le contenue se trouvant derriere http://www.monsite.fr/gallery/
Est-ce techniquement faisable?

5 réponses

Avatar
ZebX
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un
repertoire d'un site web.
Je connais wget, mais visiblement, il ne suit que les liens. Donc, si
par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas.
Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger
tout le contenue se trouvant derriere http://www.monsite.fr/gallery/
Est-ce techniquement faisable?


wget le fait avec les bonnes options que je ne connais pas.
Sinon httrack est plus simple d'usage pour pour ca. Il interprête même
_certains_ javascript pour identifier les liens.

--
ZebX - Mécano-boucher

Avatar
Tom
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un
repertoire d'un site web.
Je connais wget, mais visiblement, il ne suit que les liens. Donc, si
par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas.
Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger
tout le contenue se trouvant derriere http://www.monsite.fr/gallery/
Est-ce techniquement faisable?


Il faut une page avec les liens. Genre si il n'y a pas d'index (.php,
.htm, etc) généralement le serveur web en crée un par défaut avec une
liste des fichiers. Là wget pourra faire quelque chose facilement.
Sinon c'est pas possible, sinon ce serait un gros trou de sécurité. Le
serveur web est justement une vitrine qui sert à cacher l'arrière
boutique (code php, données etc).
Donc au mieux un programme qui télécharge "tous" les fichiers d'un
répertoire télécharge tous les fichiers du répertoire dont il trouve des
liens quelque part.

Tom

Avatar
Denis Beauregard
Le Mon, 01 Aug 2005 20:13:01 +1200, michelus34
écrivait dans fr.comp.os.linux.configuration:

Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un
repertoire d'un site web.
Je connais wget, mais visiblement, il ne suit que les liens. Donc, si
par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas.
Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger
tout le contenue se trouvant derriere http://www.monsite.fr/gallery/
Est-ce techniquement faisable?


Oui, avec FTP. Mais il faut avoir accès au contenu.


Denis

Avatar
noone
Bonjour, j'essaie de trouver un moyen de recuperer le contenu d'un
repertoire d'un site web.
Je connais wget, mais visiblement, il ne suit que les liens. Donc, si
par exemple, un fichier n'est dans aucun lien, il ne le telecharge pas.
Y-a t'il un aspirateur qui est en mesure de le faire? genre telecharger
tout le contenue se trouvant derriere http://www.monsite.fr/gallery/
Est-ce techniquement faisable?


Je ne sais pas si ça marche dans ce cas
mais pour aspirer un site j'utilise "httrack"

Avatar
ZebX

Je ne sais pas si ça marche dans ce cas
mais pour aspirer un site j'utilise "httrack"


httrack marche sur les liens. Là, le monsieur, il veut faire du ftp.


--
ZebX - Mécano-boucher